aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
authorGravatar Florin Malita <fmalita@chromium.org>2017-08-23 12:08:37 -0400
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-08-23 16:38:25 +0000
commit59a62ed9462efa58573594da0f0088bba37960af (patch)
treee565bdc1480549bb1d2fb2ac2153d9a8c64b95a7 /src/jumper/SkJumper_generated.S
parent3cf781d0e0afc0bbd8a9cb18ad4b126ebcafbbe5 (diff)
ColorBurn/ColorDodge stage tweaks
Minor speedup. Before: 10212.01 ? blendmode_rect_ColorBurn 8888 9216.78 ? blendmode_rect_ColorDodge 8888 After: 9635.44 ? blendmode_rect_ColorBurn 8888 8820.22 ? blendmode_rect_ColorDodge 8888 Change-Id: I9e8a9aa21e2370de3174c31821fb0676260d2643 Reviewed-on: https://skia-review.googlesource.com/37620 Reviewed-by: Mike Klein <mtklein@chromium.org> Commit-Queue: Florin Malita <fmalita@chromium.org>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S9036
1 files changed, 4524 insertions, 4512 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index d616ed93e9..fc446f3865 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -531,99 +531,122 @@ HIDDEN _sk_colorburn_aarch64
.globl _sk_colorburn_aarch64
FUNCTION(_sk_colorburn_aarch64)
_sk_colorburn_aarch64:
- .long 0x4ea4d4f3 // fsub v19.4s, v7.4s, v4.4s
- .long 0x6e23de73 // fmul v19.4s, v19.4s, v3.4s
- .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00
- .long 0x6e20fe73 // fdiv v19.4s, v19.4s, v0.4s
- .long 0x4ea7d634 // fsub v20.4s, v17.4s, v7.4s
- .long 0x4eb3f4f3 // fmin v19.4s, v7.4s, v19.4s
- .long 0x6e20de95 // fmul v21.4s, v20.4s, v0.4s
- .long 0x4eb3d4f3 // fsub v19.4s, v7.4s, v19.4s
- .long 0x4e24d6b6 // fadd v22.4s, v21.4s, v4.4s
- .long 0x4e33cc75 // fmla v21.4s, v3.4s, v19.4s
- .long 0x4ea5d4f3 // fsub v19.4s, v7.4s, v5.4s
- .long 0x6e23de73 // fmul v19.4s, v19.4s, v3.4s
- .long 0x6e21fe73 // fdiv v19.4s, v19.4s, v1.4s
- .long 0x4ea0d812 // fcmeq v18.4s, v0.4s, #0.0
- .long 0x4eb3f4f3 // fmin v19.4s, v7.4s, v19.4s
- .long 0x6e751c12 // bsl v18.16b, v0.16b, v21.16b
- .long 0x6e21de80 // fmul v0.4s, v20.4s, v1.4s
- .long 0x4eb3d4f3 // fsub v19.4s, v7.4s, v19.4s
- .long 0x4e25d415 // fadd v21.4s, v0.4s, v5.4s
- .long 0x4e33cc60 // fmla v0.4s, v3.4s, v19.4s
- .long 0x4ea0d833 // fcmeq v19.4s, v1.4s, #0.0
- .long 0x6e601c33 // bsl v19.16b, v1.16b, v0.16b
- .long 0x4ea6d4e0 // fsub v0.4s, v7.4s, v6.4s
- .long 0x6e23dc00 // fmul v0.4s, v0.4s, v3.4s
- .long 0x6e22fc00 // fdiv v0.4s, v0.4s, v2.4s
- .long 0x4ea0f4e0 // fmin v0.4s, v7.4s, v0.4s
- .long 0x6e22de81 // fmul v1.4s, v20.4s, v2.4s
- .long 0x4ea0d4e0 // fsub v0.4s, v7.4s, v0.4s
- .long 0x4e26d434 // fadd v20.4s, v1.4s, v6.4s
- .long 0x4e20cc61 // fmla v1.4s, v3.4s, v0.4s
- .long 0x4ea0d840 // fcmeq v0.4s, v2.4s, #0.0
- .long 0x4ea3d631 // fsub v17.4s, v17.4s, v3.4s
+ .long 0x4ea01c10 // mov v16.16b, v0.16b
+ .long 0x4ea1da15 // frecpe v21.4s, v16.4s
+ .long 0x4ea4d4f4 // fsub v20.4s, v7.4s, v4.4s
+ .long 0x4e35fe18 // frecps v24.4s, v16.4s, v21.4s
+ .long 0x6e38deb5 // fmul v21.4s, v21.4s, v24.4s
+ .long 0x6e23de94 // fmul v20.4s, v20.4s, v3.4s
+ .long 0x4f03f613 // fmov v19.4s, #1.000000000000000000e+00
+ .long 0x6e35de94 // fmul v20.4s, v20.4s, v21.4s
+ .long 0x4ea7d678 // fsub v24.4s, v19.4s, v7.4s
+ .long 0x4eb4f4f4 // fmin v20.4s, v7.4s, v20.4s
+ .long 0x4ea0da12 // fcmeq v18.4s, v16.4s, #0.0
+ .long 0x4ea3d673 // fsub v19.4s, v19.4s, v3.4s
+ .long 0x6e30df10 // fmul v16.4s, v24.4s, v16.4s
+ .long 0x4eb4d4f4 // fsub v20.4s, v7.4s, v20.4s
+ .long 0x4e24d615 // fadd v21.4s, v16.4s, v4.4s
+ .long 0x4e34cc70 // fmla v16.4s, v3.4s, v20.4s
+ .long 0x6e24de74 // fmul v20.4s, v19.4s, v4.4s
+ .long 0x4e30d690 // fadd v16.4s, v20.4s, v16.4s
+ .long 0x6e701e92 // bsl v18.16b, v20.16b, v16.16b
+ .long 0x4ea1d830 // frecpe v16.4s, v1.4s
+ .long 0x4ea5d4f7 // fsub v23.4s, v7.4s, v5.4s
+ .long 0x4e30fc34 // frecps v20.4s, v1.4s, v16.4s
+ .long 0x6e34de14 // fmul v20.4s, v16.4s, v20.4s
+ .long 0x6e23def7 // fmul v23.4s, v23.4s, v3.4s
+ .long 0x6e34def4 // fmul v20.4s, v23.4s, v20.4s
+ .long 0x4eb4f4f4 // fmin v20.4s, v7.4s, v20.4s
+ .long 0x4ea0d836 // fcmeq v22.4s, v1.4s, #0.0
+ .long 0x6e21df01 // fmul v1.4s, v24.4s, v1.4s
+ .long 0x4eb4d4f4 // fsub v20.4s, v7.4s, v20.4s
+ .long 0x4e25d437 // fadd v23.4s, v1.4s, v5.4s
+ .long 0x4e34cc61 // fmla v1.4s, v3.4s, v20.4s
+ .long 0x6e25de74 // fmul v20.4s, v19.4s, v5.4s
+ .long 0x4e21d681 // fadd v1.4s, v20.4s, v1.4s
+ .long 0x6e611e96 // bsl v22.16b, v20.16b, v1.16b
+ .long 0x4ea1d854 // frecpe v20.4s, v2.4s
+ .long 0x4ea0d841 // fcmeq v1.4s, v2.4s, #0.0
+ .long 0x6e22df18 // fmul v24.4s, v24.4s, v2.4s
+ .long 0x4e34fc42 // frecps v2.4s, v2.4s, v20.4s
+ .long 0x6e22de82 // fmul v2.4s, v20.4s, v2.4s
+ .long 0x4ea6d4f4 // fsub v20.4s, v7.4s, v6.4s
+ .long 0x6e23de94 // fmul v20.4s, v20.4s, v3.4s
+ .long 0x6e22de82 // fmul v2.4s, v20.4s, v2.4s
+ .long 0x4ea2f4e2 // fmin v2.4s, v7.4s, v2.4s
+ .long 0x4ea2d4e2 // fsub v2.4s, v7.4s, v2.4s
+ .long 0x4e26d714 // fadd v20.4s, v24.4s, v6.4s
+ .long 0x4e22cc78 // fmla v24.4s, v3.4s, v2.4s
+ .long 0x6e26de62 // fmul v2.4s, v19.4s, v6.4s
.long 0xf8408425 // ldr x5, [x1], #8
- .long 0x4e27e490 // fcmeq v16.4s, v4.4s, v7.4s
- .long 0x6e611c40 // bsl v0.16b, v2.16b, v1.16b
- .long 0x4e31cc92 // fmla v18.4s, v4.4s, v17.4s
- .long 0x4e27e4a1 // fcmeq v1.4s, v5.4s, v7.4s
- .long 0x4e27e4c2 // fcmeq v2.4s, v6.4s, v7.4s
- .long 0x4e31ccb3 // fmla v19.4s, v5.4s, v17.4s
- .long 0x4e31ccc0 // fmla v0.4s, v6.4s, v17.4s
- .long 0x6e721ed0 // bsl v16.16b, v22.16b, v18.16b
- .long 0x6e731ea1 // bsl v1.16b, v21.16b, v19.16b
- .long 0x6e601e82 // bsl v2.16b, v20.16b, v0.16b
- .long 0x4e27ce23 // fmla v3.4s, v17.4s, v7.4s
- .long 0x4eb01e00 // mov v0.16b, v16.16b
+ .long 0x4e38d458 // fadd v24.4s, v2.4s, v24.4s
+ .long 0x4e27e4b1 // fcmeq v17.4s, v5.4s, v7.4s
+ .long 0x4e27e4d0 // fcmeq v16.4s, v6.4s, v7.4s
+ .long 0x6e781c41 // bsl v1.16b, v2.16b, v24.16b
+ .long 0x4e27e480 // fcmeq v0.4s, v4.4s, v7.4s
+ .long 0x6e761ef1 // bsl v17.16b, v23.16b, v22.16b
+ .long 0x6e611e90 // bsl v16.16b, v20.16b, v1.16b
+ .long 0x6e721ea0 // bsl v0.16b, v21.16b, v18.16b
+ .long 0x4e27ce63 // fmla v3.4s, v19.4s, v7.4s
+ .long 0x4eb11e21 // mov v1.16b, v17.16b
+ .long 0x4eb01e02 // mov v2.16b, v16.16b
.long 0xd61f00a0 // br x5
HIDDEN _sk_colordodge_aarch64
.globl _sk_colordodge_aarch64
FUNCTION(_sk_colordodge_aarch64)
_sk_colordodge_aarch64:
+ .long 0x4ea01c10 // mov v16.16b, v0.16b
+ .long 0x4eb0d475 // fsub v21.4s, v3.4s, v16.4s
+ .long 0x4ea1dab7 // frecpe v23.4s, v21.4s
.long 0x4f03f612 // fmov v18.4s, #1.000000000000000000e+00
- .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s
- .long 0x4ea0d474 // fsub v20.4s, v3.4s, v0.4s
- .long 0x6e25dc75 // fmul v21.4s, v3.4s, v5.4s
- .long 0x4ea1d476 // fsub v22.4s, v3.4s, v1.4s
- .long 0x4ea7d657 // fsub v23.4s, v18.4s, v7.4s
- .long 0x6e34fe31 // fdiv v17.4s, v17.4s, v20.4s
- .long 0x6e36feb4 // fdiv v20.4s, v21.4s, v22.4s
- .long 0x6e20def5 // fmul v21.4s, v23.4s, v0.4s
- .long 0x4eb1f4f1 // fmin v17.4s, v7.4s, v17.4s
- .long 0x4e23e413 // fcmeq v19.4s, v0.4s, v3.4s
- .long 0x4e24d6b6 // fadd v22.4s, v21.4s, v4.4s
- .long 0x4e31cc75 // fmla v21.4s, v3.4s, v17.4s
- .long 0x6e751c13 // bsl v19.16b, v0.16b, v21.16b
- .long 0x6e21dee0 // fmul v0.4s, v23.4s, v1.4s
+ .long 0x4e37feb5 // frecps v21.4s, v21.4s, v23.4s
+ .long 0x6e24dc74 // fmul v20.4s, v3.4s, v4.4s
+ .long 0x4ea7d656 // fsub v22.4s, v18.4s, v7.4s
+ .long 0x6e35def5 // fmul v21.4s, v23.4s, v21.4s
+ .long 0x6e30ded7 // fmul v23.4s, v22.4s, v16.4s
+ .long 0x6e35de94 // fmul v20.4s, v20.4s, v21.4s
+ .long 0x4eb71ef5 // mov v21.16b, v23.16b
.long 0x4eb4f4f4 // fmin v20.4s, v7.4s, v20.4s
- .long 0x4e25d415 // fadd v21.4s, v0.4s, v5.4s
- .long 0x4e34cc60 // fmla v0.4s, v3.4s, v20.4s
- .long 0x4e23e434 // fcmeq v20.4s, v1.4s, v3.4s
- .long 0x6e601c34 // bsl v20.16b, v1.16b, v0.16b
- .long 0x6e26dc60 // fmul v0.4s, v3.4s, v6.4s
+ .long 0x4e23e613 // fcmeq v19.4s, v16.4s, v3.4s
+ .long 0x4e34cc75 // fmla v21.4s, v3.4s, v20.4s
+ .long 0x6e751e13 // bsl v19.16b, v16.16b, v21.16b
+ .long 0x4ea1d470 // fsub v16.4s, v3.4s, v1.4s
+ .long 0x4ea1da15 // frecpe v21.4s, v16.4s
+ .long 0x4e35fe10 // frecps v16.4s, v16.4s, v21.4s
+ .long 0x6e25dc74 // fmul v20.4s, v3.4s, v5.4s
+ .long 0x6e30deb0 // fmul v16.4s, v21.4s, v16.4s
+ .long 0x6e21ded5 // fmul v21.4s, v22.4s, v1.4s
+ .long 0x6e30de90 // fmul v16.4s, v20.4s, v16.4s
+ .long 0x4eb51eb4 // mov v20.16b, v21.16b
+ .long 0x4eb0f4f0 // fmin v16.4s, v7.4s, v16.4s
+ .long 0x4e30cc74 // fmla v20.4s, v3.4s, v16.4s
+ .long 0x4e23e430 // fcmeq v16.4s, v1.4s, v3.4s
+ .long 0x6e741c30 // bsl v16.16b, v1.16b, v20.16b
.long 0x4ea2d461 // fsub v1.4s, v3.4s, v2.4s
- .long 0x6e21fc00 // fdiv v0.4s, v0.4s, v1.4s
- .long 0x6e22dee1 // fmul v1.4s, v23.4s, v2.4s
- .long 0x4ea0f4e0 // fmin v0.4s, v7.4s, v0.4s
- .long 0x4e26d437 // fadd v23.4s, v1.4s, v6.4s
- .long 0x4e20cc61 // fmla v1.4s, v3.4s, v0.4s
- .long 0x4e23e440 // fcmeq v0.4s, v2.4s, v3.4s
- .long 0x6e611c40 // bsl v0.16b, v2.16b, v1.16b
- .long 0x4ea3d641 // fsub v1.4s, v18.4s, v3.4s
+ .long 0x4ea1d834 // frecpe v20.4s, v1.4s
+ .long 0x4e34fc21 // frecps v1.4s, v1.4s, v20.4s
+ .long 0x6e21de81 // fmul v1.4s, v20.4s, v1.4s
+ .long 0x6e26dc74 // fmul v20.4s, v3.4s, v6.4s
+ .long 0x6e22ded6 // fmul v22.4s, v22.4s, v2.4s
+ .long 0x6e21de81 // fmul v1.4s, v20.4s, v1.4s
+ .long 0x4eb61ed4 // mov v20.16b, v22.16b
+ .long 0x4ea1f4e1 // fmin v1.4s, v7.4s, v1.4s
+ .long 0x4e21cc74 // fmla v20.4s, v3.4s, v1.4s
+ .long 0x4e23e441 // fcmeq v1.4s, v2.4s, v3.4s
+ .long 0x4ea3d652 // fsub v18.4s, v18.4s, v3.4s
.long 0xf8408425 // ldr x5, [x1], #8
- .long 0x4ea0d890 // fcmeq v16.4s, v4.4s, #0.0
.long 0x4ea0d8b1 // fcmeq v17.4s, v5.4s, #0.0
- .long 0x4e21cc93 // fmla v19.4s, v4.4s, v1.4s
- .long 0x4e21ccb4 // fmla v20.4s, v5.4s, v1.4s
+ .long 0x6e741c41 // bsl v1.16b, v2.16b, v20.16b
+ .long 0x4e32ccb0 // fmla v16.4s, v5.4s, v18.4s
+ .long 0x4ea0d880 // fcmeq v0.4s, v4.4s, #0.0
.long 0x4ea0d8c2 // fcmeq v2.4s, v6.4s, #0.0
- .long 0x4e21ccc0 // fmla v0.4s, v6.4s, v1.4s
- .long 0x6e731ed0 // bsl v16.16b, v22.16b, v19.16b
- .long 0x6e741eb1 // bsl v17.16b, v21.16b, v20.16b
- .long 0x6e601ee2 // bsl v2.16b, v23.16b, v0.16b
- .long 0x4e27cc23 // fmla v3.4s, v1.4s, v7.4s
- .long 0x4eb01e00 // mov v0.16b, v16.16b
+ .long 0x4e32cc93 // fmla v19.4s, v4.4s, v18.4s
+ .long 0x4e32ccc1 // fmla v1.4s, v6.4s, v18.4s
+ .long 0x6e701eb1 // bsl v17.16b, v21.16b, v16.16b
+ .long 0x6e731ee0 // bsl v0.16b, v23.16b, v19.16b
+ .long 0x6e611ec2 // bsl v2.16b, v22.16b, v1.16b
+ .long 0x4e27ce43 // fmla v3.4s, v18.4s, v7.4s
.long 0x4eb11e21 // mov v1.16b, v17.16b
.long 0xd61f00a0 // br x5
@@ -1284,7 +1307,7 @@ _sk_srcover_rgba_8888_aarch64:
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897908 // add x8, x8, x9, asr #30
- .long 0xb5000504 // cbnz x4, 1168 <_sk_srcover_rgba_8888_aarch64+0xbc>
+ .long 0xb5000504 // cbnz x4, 11c4 <_sk_srcover_rgba_8888_aarch64+0xbc>
.long 0x3dc00104 // ldr q4, [x8]
.long 0x6f00e625 // movi v5.2d, #0xff000000ff
.long 0x6f380486 // ushr v6.4s, v4.4s, #8
@@ -1319,42 +1342,42 @@ _sk_srcover_rgba_8888_aarch64:
.long 0x6e21a871 // fcvtnu v17.4s, v3.4s
.long 0x4f385631 // shl v17.4s, v17.4s, #24
.long 0x4eb11e10 // orr v16.16b, v16.16b, v17.16b
- .long 0xb5000284 // cbnz x4, 11a4 <_sk_srcover_rgba_8888_aarch64+0xf8>
+ .long 0xb5000284 // cbnz x4, 1200 <_sk_srcover_rgba_8888_aarch64+0xf8>
.long 0x3d800110 // str q16, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000300 // b.eq 11d0 <_sk_srcover_rgba_8888_aarch64+0x124> // b.none
+ .long 0x54000300 // b.eq 122c <_sk_srcover_rgba_8888_aarch64+0x124> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x6f00e404 // movi v4.2d, #0x0
- .long 0x540000c0 // b.eq 1194 <_sk_srcover_rgba_8888_aarch64+0xe8> // b.none
+ .long 0x540000c0 // b.eq 11f0 <_sk_srcover_rgba_8888_aarch64+0xe8> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffa61 // b.ne 10d0 <_sk_srcover_rgba_8888_aarch64+0x24> // b.any
+ .long 0x54fffa61 // b.ne 112c <_sk_srcover_rgba_8888_aarch64+0x24> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4e040fe4 // dup v4.4s, wzr
.long 0x4d408124 // ld1 {v4.s}[2], [x9]
.long 0xfd400105 // ldr d5, [x8]
.long 0x6e054084 // ext v4.16b, v4.16b, v5.16b, #8
.long 0x6e044084 // ext v4.16b, v4.16b, v4.16b, #8
- .long 0x17ffffcc // b 10d0 <_sk_srcover_rgba_8888_aarch64+0x24>
+ .long 0x17ffffcc // b 112c <_sk_srcover_rgba_8888_aarch64+0x24>
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000180 // b.eq 11dc <_sk_srcover_rgba_8888_aarch64+0x130> // b.none
+ .long 0x54000180 // b.eq 1238 <_sk_srcover_rgba_8888_aarch64+0x130> // b.none
.long 0x7100093f // cmp w9, #0x2
- .long 0x540000a0 // b.eq 11c8 <_sk_srcover_rgba_8888_aarch64+0x11c> // b.none
+ .long 0x540000a0 // b.eq 1224 <_sk_srcover_rgba_8888_aarch64+0x11c> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffd01 // b.ne 115c <_sk_srcover_rgba_8888_aarch64+0xb0> // b.any
+ .long 0x54fffd01 // b.ne 11b8 <_sk_srcover_rgba_8888_aarch64+0xb0> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4d008130 // st1 {v16.s}[2], [x9]
.long 0xfd000110 // str d16, [x8]
- .long 0x17ffffe4 // b 115c <_sk_srcover_rgba_8888_aarch64+0xb0>
+ .long 0x17ffffe4 // b 11b8 <_sk_srcover_rgba_8888_aarch64+0xb0>
.long 0x4e040fe4 // dup v4.4s, wzr
.long 0x0d408104 // ld1 {v4.s}[0], [x8]
- .long 0x17ffffbe // b 10d0 <_sk_srcover_rgba_8888_aarch64+0x24>
+ .long 0x17ffffbe // b 112c <_sk_srcover_rgba_8888_aarch64+0x24>
.long 0x0d008110 // st1 {v16.s}[0], [x8]
- .long 0x17ffffdf // b 115c <_sk_srcover_rgba_8888_aarch64+0xb0>
+ .long 0x17ffffdf // b 11b8 <_sk_srcover_rgba_8888_aarch64+0xb0>
HIDDEN _sk_clamp_0_aarch64
.globl _sk_clamp_0_aarch64
@@ -1800,7 +1823,7 @@ _sk_scale_u8_aarch64:
.long 0xb9800908 // ldrsw x8, [x8, #8]
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb50002e4 // cbnz x4, 17b8 <_sk_scale_u8_aarch64+0x74>
+ .long 0xb50002e4 // cbnz x4, 1814 <_sk_scale_u8_aarch64+0x74>
.long 0x39400109 // ldrb w9, [x8]
.long 0x3940050a // ldrb w10, [x8, #1]
.long 0x3940090b // ldrb w11, [x8, #2]
@@ -1825,12 +1848,12 @@ _sk_scale_u8_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 1804 <_sk_scale_u8_aarch64+0xc0> // b.none
+ .long 0x54000220 // b.eq 1860 <_sk_scale_u8_aarch64+0xc0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e410 // movi d16, #0x0
- .long 0x540000c0 // b.eq 17e4 <_sk_scale_u8_aarch64+0xa0> // b.none
+ .long 0x540000c0 // b.eq 1840 <_sk_scale_u8_aarch64+0xa0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffd61 // b.ne 1780 <_sk_scale_u8_aarch64+0x3c> // b.any
+ .long 0x54fffd61 // b.ne 17dc <_sk_scale_u8_aarch64+0x3c> // b.any
.long 0x39400909 // ldrb w9, [x8, #2]
.long 0x0e020ff0 // dup v16.4h, wzr
.long 0x4e0a1d30 // mov v16.h[2], w9
@@ -1841,11 +1864,11 @@ _sk_scale_u8_aarch64:
.long 0x0e401a31 // uzp1 v17.4h, v17.4h, v0.4h
.long 0x2e112210 // ext v16.8b, v16.8b, v17.8b, #4
.long 0x2e102210 // ext v16.8b, v16.8b, v16.8b, #4
- .long 0x17ffffe0 // b 1780 <_sk_scale_u8_aarch64+0x3c>
+ .long 0x17ffffe0 // b 17dc <_sk_scale_u8_aarch64+0x3c>
.long 0x39400108 // ldrb w8, [x8]
.long 0x0e020ff0 // dup v16.4h, wzr
.long 0x4e021d10 // mov v16.h[0], w8
- .long 0x17ffffdc // b 1780 <_sk_scale_u8_aarch64+0x3c>
+ .long 0x17ffffdc // b 17dc <_sk_scale_u8_aarch64+0x3c>
HIDDEN _sk_lerp_1_float_aarch64
.globl _sk_lerp_1_float_aarch64
@@ -1877,7 +1900,7 @@ _sk_lerp_u8_aarch64:
.long 0xb9800908 // ldrsw x8, [x8, #8]
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb50003e4 // cbnz x4, 18e4 <_sk_lerp_u8_aarch64+0x94>
+ .long 0xb50003e4 // cbnz x4, 1940 <_sk_lerp_u8_aarch64+0x94>
.long 0x39400109 // ldrb w9, [x8]
.long 0x3940050a // ldrb w10, [x8, #1]
.long 0x3940090b // ldrb w11, [x8, #2]
@@ -1910,12 +1933,12 @@ _sk_lerp_u8_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 1930 <_sk_lerp_u8_aarch64+0xe0> // b.none
+ .long 0x54000220 // b.eq 198c <_sk_lerp_u8_aarch64+0xe0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e410 // movi d16, #0x0
- .long 0x540000c0 // b.eq 1910 <_sk_lerp_u8_aarch64+0xc0> // b.none
+ .long 0x540000c0 // b.eq 196c <_sk_lerp_u8_aarch64+0xc0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffc61 // b.ne 188c <_sk_lerp_u8_aarch64+0x3c> // b.any
+ .long 0x54fffc61 // b.ne 18e8 <_sk_lerp_u8_aarch64+0x3c> // b.any
.long 0x39400909 // ldrb w9, [x8, #2]
.long 0x0e020ff0 // dup v16.4h, wzr
.long 0x4e0a1d30 // mov v16.h[2], w9
@@ -1926,11 +1949,11 @@ _sk_lerp_u8_aarch64:
.long 0x0e401a31 // uzp1 v17.4h, v17.4h, v0.4h
.long 0x2e112210 // ext v16.8b, v16.8b, v17.8b, #4
.long 0x2e102210 // ext v16.8b, v16.8b, v16.8b, #4
- .long 0x17ffffd8 // b 188c <_sk_lerp_u8_aarch64+0x3c>
+ .long 0x17ffffd8 // b 18e8 <_sk_lerp_u8_aarch64+0x3c>
.long 0x39400108 // ldrb w8, [x8]
.long 0x0e020ff0 // dup v16.4h, wzr
.long 0x4e021d10 // mov v16.h[0], w8
- .long 0x17ffffd4 // b 188c <_sk_lerp_u8_aarch64+0x3c>
+ .long 0x17ffffd4 // b 18e8 <_sk_lerp_u8_aarch64+0x3c>
HIDDEN _sk_lerp_565_aarch64
.globl _sk_lerp_565_aarch64
@@ -1943,7 +1966,7 @@ _sk_lerp_565_aarch64:
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897d08 // add x8, x8, x9, asr #31
- .long 0xb50005c4 // cbnz x4, 1a14 <_sk_lerp_565_aarch64+0xd4>
+ .long 0xb50005c4 // cbnz x4, 1a70 <_sk_lerp_565_aarch64+0xd4>
.long 0xfd400110 // ldr d16, [x8]
.long 0x321b17e8 // orr w8, wzr, #0x7e0
.long 0x4e040d12 // dup v18.4s, w8
@@ -1991,12 +2014,12 @@ _sk_lerp_565_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 1a60 <_sk_lerp_565_aarch64+0x120> // b.none
+ .long 0x54000220 // b.eq 1abc <_sk_lerp_565_aarch64+0x120> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e410 // movi d16, #0x0
- .long 0x540000c0 // b.eq 1a40 <_sk_lerp_565_aarch64+0x100> // b.none
+ .long 0x540000c0 // b.eq 1a9c <_sk_lerp_565_aarch64+0x100> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fff9a1 // b.ne 1964 <_sk_lerp_565_aarch64+0x24> // b.any
+ .long 0x54fff9a1 // b.ne 19c0 <_sk_lerp_565_aarch64+0x24> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0e020ff0 // dup v16.4h, wzr
.long 0x0d405130 // ld1 {v16.h}[2], [x9]
@@ -2007,10 +2030,10 @@ _sk_lerp_565_aarch64:
.long 0x0e401a31 // uzp1 v17.4h, v17.4h, v0.4h
.long 0x2e112210 // ext v16.8b, v16.8b, v17.8b, #4
.long 0x2e102210 // ext v16.8b, v16.8b, v16.8b, #4
- .long 0x17ffffc2 // b 1964 <_sk_lerp_565_aarch64+0x24>
+ .long 0x17ffffc2 // b 19c0 <_sk_lerp_565_aarch64+0x24>
.long 0x0e020ff0 // dup v16.4h, wzr
.long 0x0d404110 // ld1 {v16.h}[0], [x8]
- .long 0x17ffffbf // b 1964 <_sk_lerp_565_aarch64+0x24>
+ .long 0x17ffffbf // b 19c0 <_sk_lerp_565_aarch64+0x24>
HIDDEN _sk_load_tables_aarch64
.globl _sk_load_tables_aarch64
@@ -2019,7 +2042,7 @@ _sk_load_tables_aarch64:
.long 0xf9400028 // ldr x8, [x1]
.long 0xf9400109 // ldr x9, [x8]
.long 0x8b020929 // add x9, x9, x2, lsl #2
- .long 0xb50006e4 // cbnz x4, 1b54 <_sk_load_tables_aarch64+0xe8>
+ .long 0xb50006e4 // cbnz x4, 1bb0 <_sk_load_tables_aarch64+0xe8>
.long 0x3dc00122 // ldr q2, [x9]
.long 0xa940a909 // ldp x9, x10, [x8, #8]
.long 0x6f00e620 // movi v0.2d, #0xff000000ff
@@ -2076,22 +2099,22 @@ _sk_load_tables_aarch64:
.long 0xd61f00a0 // br x5
.long 0x1200048a // and w10, w4, #0x3
.long 0x7100055f // cmp w10, #0x1
- .long 0x540001a0 // b.eq 1b90 <_sk_load_tables_aarch64+0x124> // b.none
+ .long 0x540001a0 // b.eq 1bec <_sk_load_tables_aarch64+0x124> // b.none
.long 0x7100095f // cmp w10, #0x2
.long 0x6f00e402 // movi v2.2d, #0x0
- .long 0x540000c0 // b.eq 1b80 <_sk_load_tables_aarch64+0x114> // b.none
+ .long 0x540000c0 // b.eq 1bdc <_sk_load_tables_aarch64+0x114> // b.none
.long 0x71000d5f // cmp w10, #0x3
- .long 0x54fff881 // b.ne 1a80 <_sk_load_tables_aarch64+0x14> // b.any
+ .long 0x54fff881 // b.ne 1adc <_sk_load_tables_aarch64+0x14> // b.any
.long 0x9100212a // add x10, x9, #0x8
.long 0x4e040fe2 // dup v2.4s, wzr
.long 0x4d408142 // ld1 {v2.s}[2], [x10]
.long 0xfd400120 // ldr d0, [x9]
.long 0x6e004040 // ext v0.16b, v2.16b, v0.16b, #8
.long 0x6e004002 // ext v2.16b, v0.16b, v0.16b, #8
- .long 0x17ffffbd // b 1a80 <_sk_load_tables_aarch64+0x14>
+ .long 0x17ffffbd // b 1adc <_sk_load_tables_aarch64+0x14>
.long 0x4e040fe2 // dup v2.4s, wzr
.long 0x0d408122 // ld1 {v2.s}[0], [x9]
- .long 0x17ffffba // b 1a80 <_sk_load_tables_aarch64+0x14>
+ .long 0x17ffffba // b 1adc <_sk_load_tables_aarch64+0x14>
HIDDEN _sk_load_tables_u16_be_aarch64
.globl _sk_load_tables_u16_be_aarch64
@@ -2100,7 +2123,7 @@ _sk_load_tables_u16_be_aarch64:
.long 0xf9400028 // ldr x8, [x1]
.long 0xf9400109 // ldr x9, [x8]
.long 0x8b020d29 // add x9, x9, x2, lsl #3
- .long 0xb5000744 // cbnz x4, 1c90 <_sk_load_tables_u16_be_aarch64+0xf4>
+ .long 0xb5000744 // cbnz x4, 1cec <_sk_load_tables_u16_be_aarch64+0xf4>
.long 0x0c400520 // ld4 {v0.4h-v3.4h}, [x9]
.long 0xa940a909 // ldp x9, x10, [x8, #8]
.long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8
@@ -2160,14 +2183,14 @@ _sk_load_tables_u16_be_aarch64:
.long 0xd61f00a0 // br x5
.long 0x0d606120 // ld4 {v0.h-v3.h}[0], [x9]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54fff8c0 // b.eq 1bb0 <_sk_load_tables_u16_be_aarch64+0x14> // b.none
+ .long 0x54fff8c0 // b.eq 1c0c <_sk_load_tables_u16_be_aarch64+0x14> // b.none
.long 0x9100212a // add x10, x9, #0x8
.long 0x0d606940 // ld4 {v0.h-v3.h}[1], [x10]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fff843 // b.cc 1bb0 <_sk_load_tables_u16_be_aarch64+0x14> // b.lo, b.ul, b.last
+ .long 0x54fff843 // b.cc 1c0c <_sk_load_tables_u16_be_aarch64+0x14> // b.lo, b.ul, b.last
.long 0x91004129 // add x9, x9, #0x10
.long 0x0d607120 // ld4 {v0.h-v3.h}[2], [x9]
- .long 0x17ffffbf // b 1bb0 <_sk_load_tables_u16_be_aarch64+0x14>
+ .long 0x17ffffbf // b 1c0c <_sk_load_tables_u16_be_aarch64+0x14>
HIDDEN _sk_load_tables_rgb_u16_be_aarch64
.globl _sk_load_tables_rgb_u16_be_aarch64
@@ -2177,7 +2200,7 @@ _sk_load_tables_rgb_u16_be_aarch64:
.long 0x321f07ea // orr w10, wzr, #0x6
.long 0xf9400109 // ldr x9, [x8]
.long 0x9b0a2449 // madd x9, x2, x10, x9
- .long 0xb5000664 // cbnz x4, 1d94 <_sk_load_tables_rgb_u16_be_aarch64+0xdc>
+ .long 0xb5000664 // cbnz x4, 1df0 <_sk_load_tables_rgb_u16_be_aarch64+0xdc>
.long 0x0c404520 // ld3 {v0.4h-v2.4h}, [x9]
.long 0xa940a909 // ldp x9, x10, [x8, #8]
.long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8
@@ -2230,14 +2253,14 @@ _sk_load_tables_rgb_u16_be_aarch64:
.long 0xd61f00a0 // br x5
.long 0x0d406120 // ld3 {v0.h-v2.h}[0], [x9]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54fff9a0 // b.eq 1cd0 <_sk_load_tables_rgb_u16_be_aarch64+0x18> // b.none
+ .long 0x54fff9a0 // b.eq 1d2c <_sk_load_tables_rgb_u16_be_aarch64+0x18> // b.none
.long 0x9100192a // add x10, x9, #0x6
.long 0x0d406940 // ld3 {v0.h-v2.h}[1], [x10]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fff923 // b.cc 1cd0 <_sk_load_tables_rgb_u16_be_aarch64+0x18> // b.lo, b.ul, b.last
+ .long 0x54fff923 // b.cc 1d2c <_sk_load_tables_rgb_u16_be_aarch64+0x18> // b.lo, b.ul, b.last
.long 0x91003129 // add x9, x9, #0xc
.long 0x0d407120 // ld3 {v0.h-v2.h}[2], [x9]
- .long 0x17ffffc6 // b 1cd0 <_sk_load_tables_rgb_u16_be_aarch64+0x18>
+ .long 0x17ffffc6 // b 1d2c <_sk_load_tables_rgb_u16_be_aarch64+0x18>
HIDDEN _sk_byte_tables_aarch64
.globl _sk_byte_tables_aarch64
@@ -2980,7 +3003,7 @@ _sk_load_a8_aarch64:
.long 0xb9800908 // ldrsw x8, [x8, #8]
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb50002e4 // cbnz x4, 28ac <_sk_load_a8_aarch64+0x74>
+ .long 0xb50002e4 // cbnz x4, 2908 <_sk_load_a8_aarch64+0x74>
.long 0x39400109 // ldrb w9, [x8]
.long 0x3940050a // ldrb w10, [x8, #1]
.long 0x3940090b // ldrb w11, [x8, #2]
@@ -3005,12 +3028,12 @@ _sk_load_a8_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 28f8 <_sk_load_a8_aarch64+0xc0> // b.none
+ .long 0x54000220 // b.eq 2954 <_sk_load_a8_aarch64+0xc0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e402 // movi d2, #0x0
- .long 0x540000c0 // b.eq 28d8 <_sk_load_a8_aarch64+0xa0> // b.none
+ .long 0x540000c0 // b.eq 2934 <_sk_load_a8_aarch64+0xa0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffd61 // b.ne 2874 <_sk_load_a8_aarch64+0x3c> // b.any
+ .long 0x54fffd61 // b.ne 28d0 <_sk_load_a8_aarch64+0x3c> // b.any
.long 0x39400909 // ldrb w9, [x8, #2]
.long 0x0e020fe2 // dup v2.4h, wzr
.long 0x4e0a1d22 // mov v2.h[2], w9
@@ -3021,11 +3044,11 @@ _sk_load_a8_aarch64:
.long 0x0e401800 // uzp1 v0.4h, v0.4h, v0.4h
.long 0x2e002040 // ext v0.8b, v2.8b, v0.8b, #4
.long 0x2e002002 // ext v2.8b, v0.8b, v0.8b, #4
- .long 0x17ffffe0 // b 2874 <_sk_load_a8_aarch64+0x3c>
+ .long 0x17ffffe0 // b 28d0 <_sk_load_a8_aarch64+0x3c>
.long 0x39400108 // ldrb w8, [x8]
.long 0x0e020fe2 // dup v2.4h, wzr
.long 0x4e021d02 // mov v2.h[0], w8
- .long 0x17ffffdc // b 2874 <_sk_load_a8_aarch64+0x3c>
+ .long 0x17ffffdc // b 28d0 <_sk_load_a8_aarch64+0x3c>
HIDDEN _sk_load_a8_dst_aarch64
.globl _sk_load_a8_dst_aarch64
@@ -3037,7 +3060,7 @@ _sk_load_a8_dst_aarch64:
.long 0xb9800908 // ldrsw x8, [x8, #8]
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb50002e4 // cbnz x4, 297c <_sk_load_a8_dst_aarch64+0x74>
+ .long 0xb50002e4 // cbnz x4, 29d8 <_sk_load_a8_dst_aarch64+0x74>
.long 0x39400109 // ldrb w9, [x8]
.long 0x3940050a // ldrb w10, [x8, #1]
.long 0x3940090b // ldrb w11, [x8, #2]
@@ -3062,12 +3085,12 @@ _sk_load_a8_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 29c8 <_sk_load_a8_dst_aarch64+0xc0> // b.none
+ .long 0x54000220 // b.eq 2a24 <_sk_load_a8_dst_aarch64+0xc0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e406 // movi d6, #0x0
- .long 0x540000c0 // b.eq 29a8 <_sk_load_a8_dst_aarch64+0xa0> // b.none
+ .long 0x540000c0 // b.eq 2a04 <_sk_load_a8_dst_aarch64+0xa0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffd61 // b.ne 2944 <_sk_load_a8_dst_aarch64+0x3c> // b.any
+ .long 0x54fffd61 // b.ne 29a0 <_sk_load_a8_dst_aarch64+0x3c> // b.any
.long 0x39400909 // ldrb w9, [x8, #2]
.long 0x0e020fe6 // dup v6.4h, wzr
.long 0x4e0a1d26 // mov v6.h[2], w9
@@ -3078,11 +3101,11 @@ _sk_load_a8_dst_aarch64:
.long 0x0e401884 // uzp1 v4.4h, v4.4h, v0.4h
.long 0x2e0420c4 // ext v4.8b, v6.8b, v4.8b, #4
.long 0x2e042086 // ext v6.8b, v4.8b, v4.8b, #4
- .long 0x17ffffe0 // b 2944 <_sk_load_a8_dst_aarch64+0x3c>
+ .long 0x17ffffe0 // b 29a0 <_sk_load_a8_dst_aarch64+0x3c>
.long 0x39400108 // ldrb w8, [x8]
.long 0x0e020fe6 // dup v6.4h, wzr
.long 0x4e021d06 // mov v6.h[0], w8
- .long 0x17ffffdc // b 2944 <_sk_load_a8_dst_aarch64+0x3c>
+ .long 0x17ffffdc // b 29a0 <_sk_load_a8_dst_aarch64+0x3c>
HIDDEN _sk_gather_a8_aarch64
.globl _sk_gather_a8_aarch64
@@ -3134,7 +3157,7 @@ _sk_store_a8_aarch64:
.long 0x0e612a10 // xtn v16.4h, v16.4s
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb5000184 // cbnz x4, 2aac <_sk_store_a8_aarch64+0x5c>
+ .long 0xb5000184 // cbnz x4, 2b08 <_sk_store_a8_aarch64+0x5c>
.long 0x0e0e3e09 // umov w9, v16.h[3]
.long 0x0e0a3e0a // umov w10, v16.h[2]
.long 0x0e063e0b // umov w11, v16.h[1]
@@ -3148,21 +3171,21 @@ _sk_store_a8_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000180 // b.eq 2ae4 <_sk_store_a8_aarch64+0x94> // b.none
+ .long 0x54000180 // b.eq 2b40 <_sk_store_a8_aarch64+0x94> // b.none
.long 0x7100093f // cmp w9, #0x2
- .long 0x540000a0 // b.eq 2ad0 <_sk_store_a8_aarch64+0x80> // b.none
+ .long 0x540000a0 // b.eq 2b2c <_sk_store_a8_aarch64+0x80> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffee1 // b.ne 2aa0 <_sk_store_a8_aarch64+0x50> // b.any
+ .long 0x54fffee1 // b.ne 2afc <_sk_store_a8_aarch64+0x50> // b.any
.long 0x0e0a3e09 // umov w9, v16.h[2]
.long 0x39000909 // strb w9, [x8, #2]
.long 0x0e023e09 // umov w9, v16.h[0]
.long 0x0e063e0a // umov w10, v16.h[1]
.long 0x3900050a // strb w10, [x8, #1]
.long 0x39000109 // strb w9, [x8]
- .long 0x17fffff0 // b 2aa0 <_sk_store_a8_aarch64+0x50>
+ .long 0x17fffff0 // b 2afc <_sk_store_a8_aarch64+0x50>
.long 0x0e023e09 // umov w9, v16.h[0]
.long 0x39000109 // strb w9, [x8]
- .long 0x17ffffed // b 2aa0 <_sk_store_a8_aarch64+0x50>
+ .long 0x17ffffed // b 2afc <_sk_store_a8_aarch64+0x50>
HIDDEN _sk_load_g8_aarch64
.globl _sk_load_g8_aarch64
@@ -3174,7 +3197,7 @@ _sk_load_g8_aarch64:
.long 0xb9800908 // ldrsw x8, [x8, #8]
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb50002e4 // cbnz x4, 2b64 <_sk_load_g8_aarch64+0x74>
+ .long 0xb50002e4 // cbnz x4, 2bc0 <_sk_load_g8_aarch64+0x74>
.long 0x39400109 // ldrb w9, [x8]
.long 0x3940050a // ldrb w10, [x8, #1]
.long 0x3940090b // ldrb w11, [x8, #2]
@@ -3199,12 +3222,12 @@ _sk_load_g8_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 2bb0 <_sk_load_g8_aarch64+0xc0> // b.none
+ .long 0x54000220 // b.eq 2c0c <_sk_load_g8_aarch64+0xc0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e400 // movi d0, #0x0
- .long 0x540000c0 // b.eq 2b90 <_sk_load_g8_aarch64+0xa0> // b.none
+ .long 0x540000c0 // b.eq 2bec <_sk_load_g8_aarch64+0xa0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffd61 // b.ne 2b2c <_sk_load_g8_aarch64+0x3c> // b.any
+ .long 0x54fffd61 // b.ne 2b88 <_sk_load_g8_aarch64+0x3c> // b.any
.long 0x39400909 // ldrb w9, [x8, #2]
.long 0x0e020fe0 // dup v0.4h, wzr
.long 0x4e0a1d20 // mov v0.h[2], w9
@@ -3215,11 +3238,11 @@ _sk_load_g8_aarch64:
.long 0x0e401821 // uzp1 v1.4h, v1.4h, v0.4h
.long 0x2e012000 // ext v0.8b, v0.8b, v1.8b, #4
.long 0x2e002000 // ext v0.8b, v0.8b, v0.8b, #4
- .long 0x17ffffe0 // b 2b2c <_sk_load_g8_aarch64+0x3c>
+ .long 0x17ffffe0 // b 2b88 <_sk_load_g8_aarch64+0x3c>
.long 0x39400108 // ldrb w8, [x8]
.long 0x0e020fe0 // dup v0.4h, wzr
.long 0x4e021d00 // mov v0.h[0], w8
- .long 0x17ffffdc // b 2b2c <_sk_load_g8_aarch64+0x3c>
+ .long 0x17ffffdc // b 2b88 <_sk_load_g8_aarch64+0x3c>
HIDDEN _sk_load_g8_dst_aarch64
.globl _sk_load_g8_dst_aarch64
@@ -3231,7 +3254,7 @@ _sk_load_g8_dst_aarch64:
.long 0xb9800908 // ldrsw x8, [x8, #8]
.long 0x9b0a2508 // madd x8, x8, x10, x9
.long 0x8b22c108 // add x8, x8, w2, sxtw
- .long 0xb50002e4 // cbnz x4, 2c34 <_sk_load_g8_dst_aarch64+0x74>
+ .long 0xb50002e4 // cbnz x4, 2c90 <_sk_load_g8_dst_aarch64+0x74>
.long 0x39400109 // ldrb w9, [x8]
.long 0x3940050a // ldrb w10, [x8, #1]
.long 0x3940090b // ldrb w11, [x8, #2]
@@ -3256,12 +3279,12 @@ _sk_load_g8_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 2c80 <_sk_load_g8_dst_aarch64+0xc0> // b.none
+ .long 0x54000220 // b.eq 2cdc <_sk_load_g8_dst_aarch64+0xc0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e404 // movi d4, #0x0
- .long 0x540000c0 // b.eq 2c60 <_sk_load_g8_dst_aarch64+0xa0> // b.none
+ .long 0x540000c0 // b.eq 2cbc <_sk_load_g8_dst_aarch64+0xa0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffd61 // b.ne 2bfc <_sk_load_g8_dst_aarch64+0x3c> // b.any
+ .long 0x54fffd61 // b.ne 2c58 <_sk_load_g8_dst_aarch64+0x3c> // b.any
.long 0x39400909 // ldrb w9, [x8, #2]
.long 0x0e020fe4 // dup v4.4h, wzr
.long 0x4e0a1d24 // mov v4.h[2], w9
@@ -3272,11 +3295,11 @@ _sk_load_g8_dst_aarch64:
.long 0x0e4018a5 // uzp1 v5.4h, v5.4h, v0.4h
.long 0x2e052084 // ext v4.8b, v4.8b, v5.8b, #4
.long 0x2e042084 // ext v4.8b, v4.8b, v4.8b, #4
- .long 0x17ffffe0 // b 2bfc <_sk_load_g8_dst_aarch64+0x3c>
+ .long 0x17ffffe0 // b 2c58 <_sk_load_g8_dst_aarch64+0x3c>
.long 0x39400108 // ldrb w8, [x8]
.long 0x0e020fe4 // dup v4.4h, wzr
.long 0x4e021d04 // mov v4.h[0], w8
- .long 0x17ffffdc // b 2bfc <_sk_load_g8_dst_aarch64+0x3c>
+ .long 0x17ffffdc // b 2c58 <_sk_load_g8_dst_aarch64+0x3c>
HIDDEN _sk_gather_g8_aarch64
.globl _sk_gather_g8_aarch64
@@ -3324,7 +3347,7 @@ _sk_load_565_aarch64:
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897d08 // add x8, x8, x9, asr #31
- .long 0xb50003c4 // cbnz x4, 2d9c <_sk_load_565_aarch64+0x94>
+ .long 0xb50003c4 // cbnz x4, 2df8 <_sk_load_565_aarch64+0x94>
.long 0xfd400100 // ldr d0, [x8]
.long 0x321b17e8 // orr w8, wzr, #0x7e0
.long 0x4e040d02 // dup v2.4s, w8
@@ -3356,12 +3379,12 @@ _sk_load_565_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 2de8 <_sk_load_565_aarch64+0xe0> // b.none
+ .long 0x54000220 // b.eq 2e44 <_sk_load_565_aarch64+0xe0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e400 // movi d0, #0x0
- .long 0x540000c0 // b.eq 2dc8 <_sk_load_565_aarch64+0xc0> // b.none
+ .long 0x540000c0 // b.eq 2e24 <_sk_load_565_aarch64+0xc0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffba1 // b.ne 2d2c <_sk_load_565_aarch64+0x24> // b.any
+ .long 0x54fffba1 // b.ne 2d88 <_sk_load_565_aarch64+0x24> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0e020fe0 // dup v0.4h, wzr
.long 0x0d405120 // ld1 {v0.h}[2], [x9]
@@ -3372,10 +3395,10 @@ _sk_load_565_aarch64:
.long 0x0e401821 // uzp1 v1.4h, v1.4h, v0.4h
.long 0x2e012000 // ext v0.8b, v0.8b, v1.8b, #4
.long 0x2e002000 // ext v0.8b, v0.8b, v0.8b, #4
- .long 0x17ffffd2 // b 2d2c <_sk_load_565_aarch64+0x24>
+ .long 0x17ffffd2 // b 2d88 <_sk_load_565_aarch64+0x24>
.long 0x0e020fe0 // dup v0.4h, wzr
.long 0x0d404100 // ld1 {v0.h}[0], [x8]
- .long 0x17ffffcf // b 2d2c <_sk_load_565_aarch64+0x24>
+ .long 0x17ffffcf // b 2d88 <_sk_load_565_aarch64+0x24>
HIDDEN _sk_load_565_dst_aarch64
.globl _sk_load_565_dst_aarch64
@@ -3388,7 +3411,7 @@ _sk_load_565_dst_aarch64:
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897d08 // add x8, x8, x9, asr #31
- .long 0xb50003c4 // cbnz x4, 2e88 <_sk_load_565_dst_aarch64+0x94>
+ .long 0xb50003c4 // cbnz x4, 2ee4 <_sk_load_565_dst_aarch64+0x94>
.long 0xfd400104 // ldr d4, [x8]
.long 0x321b17e8 // orr w8, wzr, #0x7e0
.long 0x4e040d06 // dup v6.4s, w8
@@ -3420,12 +3443,12 @@ _sk_load_565_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 2ed4 <_sk_load_565_dst_aarch64+0xe0> // b.none
+ .long 0x54000220 // b.eq 2f30 <_sk_load_565_dst_aarch64+0xe0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e404 // movi d4, #0x0
- .long 0x540000c0 // b.eq 2eb4 <_sk_load_565_dst_aarch64+0xc0> // b.none
+ .long 0x540000c0 // b.eq 2f10 <_sk_load_565_dst_aarch64+0xc0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffba1 // b.ne 2e18 <_sk_load_565_dst_aarch64+0x24> // b.any
+ .long 0x54fffba1 // b.ne 2e74 <_sk_load_565_dst_aarch64+0x24> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0e020fe4 // dup v4.4h, wzr
.long 0x0d405124 // ld1 {v4.h}[2], [x9]
@@ -3436,10 +3459,10 @@ _sk_load_565_dst_aarch64:
.long 0x0e4018a5 // uzp1 v5.4h, v5.4h, v0.4h
.long 0x2e052084 // ext v4.8b, v4.8b, v5.8b, #4
.long 0x2e042084 // ext v4.8b, v4.8b, v4.8b, #4
- .long 0x17ffffd2 // b 2e18 <_sk_load_565_dst_aarch64+0x24>
+ .long 0x17ffffd2 // b 2e74 <_sk_load_565_dst_aarch64+0x24>
.long 0x0e020fe4 // dup v4.4h, wzr
.long 0x0d404104 // ld1 {v4.h}[0], [x8]
- .long 0x17ffffcf // b 2e18 <_sk_load_565_dst_aarch64+0x24>
+ .long 0x17ffffcf // b 2e74 <_sk_load_565_dst_aarch64+0x24>
HIDDEN _sk_gather_565_aarch64
.globl _sk_gather_565_aarch64
@@ -3515,24 +3538,24 @@ _sk_store_565_aarch64:
.long 0x4eb11e10 // orr v16.16b, v16.16b, v17.16b
.long 0x8b897d08 // add x8, x8, x9, asr #31
.long 0x0e612a10 // xtn v16.4h, v16.4s
- .long 0xb50000a4 // cbnz x4, 2ff8 <_sk_store_565_aarch64+0x68>
+ .long 0xb50000a4 // cbnz x4, 3054 <_sk_store_565_aarch64+0x68>
.long 0xfd000110 // str d16, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000120 // b.eq 3024 <_sk_store_565_aarch64+0x94> // b.none
+ .long 0x54000120 // b.eq 3080 <_sk_store_565_aarch64+0x94> // b.none
.long 0x7100093f // cmp w9, #0x2
- .long 0x540000a0 // b.eq 301c <_sk_store_565_aarch64+0x8c> // b.none
+ .long 0x540000a0 // b.eq 3078 <_sk_store_565_aarch64+0x8c> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffee1 // b.ne 2fec <_sk_store_565_aarch64+0x5c> // b.any
+ .long 0x54fffee1 // b.ne 3048 <_sk_store_565_aarch64+0x5c> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0d005130 // st1 {v16.h}[2], [x9]
.long 0x91000909 // add x9, x8, #0x2
.long 0x0d004930 // st1 {v16.h}[1], [x9]
.long 0x0d004110 // st1 {v16.h}[0], [x8]
- .long 0x17fffff1 // b 2fec <_sk_store_565_aarch64+0x5c>
+ .long 0x17fffff1 // b 3048 <_sk_store_565_aarch64+0x5c>
HIDDEN _sk_load_4444_aarch64
.globl _sk_load_4444_aarch64
@@ -3545,7 +3568,7 @@ _sk_load_4444_aarch64:
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897d08 // add x8, x8, x9, asr #31
- .long 0xb5000444 // cbnz x4, 30d0 <_sk_load_4444_aarch64+0xa4>
+ .long 0xb5000444 // cbnz x4, 312c <_sk_load_4444_aarch64+0xa4>
.long 0xfd400100 // ldr d0, [x8]
.long 0x52a6f108 // mov w8, #0x37880000
.long 0x2f10a400 // uxtl v0.4s, v0.4h
@@ -3581,12 +3604,12 @@ _sk_load_4444_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 311c <_sk_load_4444_aarch64+0xf0> // b.none
+ .long 0x54000220 // b.eq 3178 <_sk_load_4444_aarch64+0xf0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e400 // movi d0, #0x0
- .long 0x540000c0 // b.eq 30fc <_sk_load_4444_aarch64+0xd0> // b.none
+ .long 0x540000c0 // b.eq 3158 <_sk_load_4444_aarch64+0xd0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffb21 // b.ne 3050 <_sk_load_4444_aarch64+0x24> // b.any
+ .long 0x54fffb21 // b.ne 30ac <_sk_load_4444_aarch64+0x24> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0e020fe0 // dup v0.4h, wzr
.long 0x0d405120 // ld1 {v0.h}[2], [x9]
@@ -3597,10 +3620,10 @@ _sk_load_4444_aarch64:
.long 0x0e401821 // uzp1 v1.4h, v1.4h, v0.4h
.long 0x2e012000 // ext v0.8b, v0.8b, v1.8b, #4
.long 0x2e002000 // ext v0.8b, v0.8b, v0.8b, #4
- .long 0x17ffffce // b 3050 <_sk_load_4444_aarch64+0x24>
+ .long 0x17ffffce // b 30ac <_sk_load_4444_aarch64+0x24>
.long 0x0e020fe0 // dup v0.4h, wzr
.long 0x0d404100 // ld1 {v0.h}[0], [x8]
- .long 0x17ffffcb // b 3050 <_sk_load_4444_aarch64+0x24>
+ .long 0x17ffffcb // b 30ac <_sk_load_4444_aarch64+0x24>
HIDDEN _sk_load_4444_dst_aarch64
.globl _sk_load_4444_dst_aarch64
@@ -3613,7 +3636,7 @@ _sk_load_4444_dst_aarch64:
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897d08 // add x8, x8, x9, asr #31
- .long 0xb5000444 // cbnz x4, 31cc <_sk_load_4444_dst_aarch64+0xa4>
+ .long 0xb5000444 // cbnz x4, 3228 <_sk_load_4444_dst_aarch64+0xa4>
.long 0xfd400104 // ldr d4, [x8]
.long 0x52a6f108 // mov w8, #0x37880000
.long 0x2f10a484 // uxtl v4.4s, v4.4h
@@ -3649,12 +3672,12 @@ _sk_load_4444_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000220 // b.eq 3218 <_sk_load_4444_dst_aarch64+0xf0> // b.none
+ .long 0x54000220 // b.eq 3274 <_sk_load_4444_dst_aarch64+0xf0> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x2f00e404 // movi d4, #0x0
- .long 0x540000c0 // b.eq 31f8 <_sk_load_4444_dst_aarch64+0xd0> // b.none
+ .long 0x540000c0 // b.eq 3254 <_sk_load_4444_dst_aarch64+0xd0> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffb21 // b.ne 314c <_sk_load_4444_dst_aarch64+0x24> // b.any
+ .long 0x54fffb21 // b.ne 31a8 <_sk_load_4444_dst_aarch64+0x24> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0e020fe4 // dup v4.4h, wzr
.long 0x0d405124 // ld1 {v4.h}[2], [x9]
@@ -3665,10 +3688,10 @@ _sk_load_4444_dst_aarch64:
.long 0x0e4018a5 // uzp1 v5.4h, v5.4h, v0.4h
.long 0x2e052084 // ext v4.8b, v4.8b, v5.8b, #4
.long 0x2e042084 // ext v4.8b, v4.8b, v4.8b, #4
- .long 0x17ffffce // b 314c <_sk_load_4444_dst_aarch64+0x24>
+ .long 0x17ffffce // b 31a8 <_sk_load_4444_dst_aarch64+0x24>
.long 0x0e020fe4 // dup v4.4h, wzr
.long 0x0d404104 // ld1 {v4.h}[0], [x8]
- .long 0x17ffffcb // b 314c <_sk_load_4444_dst_aarch64+0x24>
+ .long 0x17ffffcb // b 31a8 <_sk_load_4444_dst_aarch64+0x24>
HIDDEN _sk_gather_4444_aarch64
.globl _sk_gather_4444_aarch64
@@ -3751,24 +3774,24 @@ _sk_store_4444_aarch64:
.long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b
.long 0x8b897d08 // add x8, x8, x9, asr #31
.long 0x0e612a10 // xtn v16.4h, v16.4s
- .long 0xb50000a4 // cbnz x4, 3358 <_sk_store_4444_aarch64+0x70>
+ .long 0xb50000a4 // cbnz x4, 33b4 <_sk_store_4444_aarch64+0x70>
.long 0xfd000110 // str d16, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000120 // b.eq 3384 <_sk_store_4444_aarch64+0x9c> // b.none
+ .long 0x54000120 // b.eq 33e0 <_sk_store_4444_aarch64+0x9c> // b.none
.long 0x7100093f // cmp w9, #0x2
- .long 0x540000a0 // b.eq 337c <_sk_store_4444_aarch64+0x94> // b.none
+ .long 0x540000a0 // b.eq 33d8 <_sk_store_4444_aarch64+0x94> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffee1 // b.ne 334c <_sk_store_4444_aarch64+0x64> // b.any
+ .long 0x54fffee1 // b.ne 33a8 <_sk_store_4444_aarch64+0x64> // b.any
.long 0x91001109 // add x9, x8, #0x4
.long 0x0d005130 // st1 {v16.h}[2], [x9]
.long 0x91000909 // add x9, x8, #0x2
.long 0x0d004930 // st1 {v16.h}[1], [x9]
.long 0x0d004110 // st1 {v16.h}[0], [x8]
- .long 0x17fffff1 // b 334c <_sk_store_4444_aarch64+0x64>
+ .long 0x17fffff1 // b 33a8 <_sk_store_4444_aarch64+0x64>
HIDDEN _sk_load_8888_aarch64
.globl _sk_load_8888_aarch64
@@ -3781,7 +3804,7 @@ _sk_load_8888_aarch64:
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897908 // add x8, x8, x9, asr #30
- .long 0xb50002e4 // cbnz x4, 3404 <_sk_load_8888_aarch64+0x78>
+ .long 0xb50002e4 // cbnz x4, 3460 <_sk_load_8888_aarch64+0x78>
.long 0x3dc00100 // ldr q0, [x8]
.long 0x6f00e621 // movi v1.2d, #0xff000000ff
.long 0x52a77008 // mov w8, #0x3b800000
@@ -3806,22 +3829,22 @@ _sk_load_8888_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x540001a0 // b.eq 3440 <_sk_load_8888_aarch64+0xb4> // b.none
+ .long 0x540001a0 // b.eq 349c <_sk_load_8888_aarch64+0xb4> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x6f00e400 // movi v0.2d, #0x0
- .long 0x540000c0 // b.eq 3430 <_sk_load_8888_aarch64+0xa4> // b.none
+ .long 0x540000c0 // b.eq 348c <_sk_load_8888_aarch64+0xa4> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffc81 // b.ne 33b0 <_sk_load_8888_aarch64+0x24> // b.any
+ .long 0x54fffc81 // b.ne 340c <_sk_load_8888_aarch64+0x24> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4e040fe0 // dup v0.4s, wzr
.long 0x4d408120 // ld1 {v0.s}[2], [x9]
.long 0xfd400101 // ldr d1, [x8]
.long 0x6e014000 // ext v0.16b, v0.16b, v1.16b, #8
.long 0x6e004000 // ext v0.16b, v0.16b, v0.16b, #8
- .long 0x17ffffdd // b 33b0 <_sk_load_8888_aarch64+0x24>
+ .long 0x17ffffdd // b 340c <_sk_load_8888_aarch64+0x24>
.long 0x4e040fe0 // dup v0.4s, wzr
.long 0x0d408100 // ld1 {v0.s}[0], [x8]
- .long 0x17ffffda // b 33b0 <_sk_load_8888_aarch64+0x24>
+ .long 0x17ffffda // b 340c <_sk_load_8888_aarch64+0x24>
HIDDEN _sk_load_8888_dst_aarch64
.globl _sk_load_8888_dst_aarch64
@@ -3834,7 +3857,7 @@ _sk_load_8888_dst_aarch64:
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897908 // add x8, x8, x9, asr #30
- .long 0xb50002e4 // cbnz x4, 34c4 <_sk_load_8888_dst_aarch64+0x78>
+ .long 0xb50002e4 // cbnz x4, 3520 <_sk_load_8888_dst_aarch64+0x78>
.long 0x3dc00104 // ldr q4, [x8]
.long 0x6f00e625 // movi v5.2d, #0xff000000ff
.long 0x52a77008 // mov w8, #0x3b800000
@@ -3859,22 +3882,22 @@ _sk_load_8888_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x540001a0 // b.eq 3500 <_sk_load_8888_dst_aarch64+0xb4> // b.none
+ .long 0x540001a0 // b.eq 355c <_sk_load_8888_dst_aarch64+0xb4> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x6f00e404 // movi v4.2d, #0x0
- .long 0x540000c0 // b.eq 34f0 <_sk_load_8888_dst_aarch64+0xa4> // b.none
+ .long 0x540000c0 // b.eq 354c <_sk_load_8888_dst_aarch64+0xa4> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffc81 // b.ne 3470 <_sk_load_8888_dst_aarch64+0x24> // b.any
+ .long 0x54fffc81 // b.ne 34cc <_sk_load_8888_dst_aarch64+0x24> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4e040fe4 // dup v4.4s, wzr
.long 0x4d408124 // ld1 {v4.s}[2], [x9]
.long 0xfd400105 // ldr d5, [x8]
.long 0x6e054084 // ext v4.16b, v4.16b, v5.16b, #8
.long 0x6e044084 // ext v4.16b, v4.16b, v4.16b, #8
- .long 0x17ffffdd // b 3470 <_sk_load_8888_dst_aarch64+0x24>
+ .long 0x17ffffdd // b 34cc <_sk_load_8888_dst_aarch64+0x24>
.long 0x4e040fe4 // dup v4.4s, wzr
.long 0x0d408104 // ld1 {v4.s}[0], [x8]
- .long 0x17ffffda // b 3470 <_sk_load_8888_dst_aarch64+0x24>
+ .long 0x17ffffda // b 34cc <_sk_load_8888_dst_aarch64+0x24>
HIDDEN _sk_gather_8888_aarch64
.globl _sk_gather_8888_aarch64
@@ -3946,24 +3969,24 @@ _sk_store_8888_aarch64:
.long 0x4eb21e31 // orr v17.16b, v17.16b, v18.16b
.long 0x8b897908 // add x8, x8, x9, asr #30
.long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b
- .long 0xb50000a4 // cbnz x4, 3614 <_sk_store_8888_aarch64+0x70>
+ .long 0xb50000a4 // cbnz x4, 3670 <_sk_store_8888_aarch64+0x70>
.long 0x3d800110 // str q16, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000120 // b.eq 3640 <_sk_store_8888_aarch64+0x9c> // b.none
+ .long 0x54000120 // b.eq 369c <_sk_store_8888_aarch64+0x9c> // b.none
.long 0x7100093f // cmp w9, #0x2
- .long 0x540000a0 // b.eq 3638 <_sk_store_8888_aarch64+0x94> // b.none
+ .long 0x540000a0 // b.eq 3694 <_sk_store_8888_aarch64+0x94> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffee1 // b.ne 3608 <_sk_store_8888_aarch64+0x64> // b.any
+ .long 0x54fffee1 // b.ne 3664 <_sk_store_8888_aarch64+0x64> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4d008130 // st1 {v16.s}[2], [x9]
.long 0xfd000110 // str d16, [x8]
- .long 0x17fffff3 // b 3608 <_sk_store_8888_aarch64+0x64>
+ .long 0x17fffff3 // b 3664 <_sk_store_8888_aarch64+0x64>
.long 0x0d008110 // st1 {v16.s}[0], [x8]
- .long 0x17fffff1 // b 3608 <_sk_store_8888_aarch64+0x64>
+ .long 0x17fffff1 // b 3664 <_sk_store_8888_aarch64+0x64>
HIDDEN _sk_load_bgra_aarch64
.globl _sk_load_bgra_aarch64
@@ -3976,7 +3999,7 @@ _sk_load_bgra_aarch64:
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897908 // add x8, x8, x9, asr #30
- .long 0xb50002e4 // cbnz x4, 36c0 <_sk_load_bgra_aarch64+0x78>
+ .long 0xb50002e4 // cbnz x4, 371c <_sk_load_bgra_aarch64+0x78>
.long 0x3dc00100 // ldr q0, [x8]
.long 0x6f00e621 // movi v1.2d, #0xff000000ff
.long 0x52a77008 // mov w8, #0x3b800000
@@ -4001,22 +4024,22 @@ _sk_load_bgra_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x540001a0 // b.eq 36fc <_sk_load_bgra_aarch64+0xb4> // b.none
+ .long 0x540001a0 // b.eq 3758 <_sk_load_bgra_aarch64+0xb4> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x6f00e400 // movi v0.2d, #0x0
- .long 0x540000c0 // b.eq 36ec <_sk_load_bgra_aarch64+0xa4> // b.none
+ .long 0x540000c0 // b.eq 3748 <_sk_load_bgra_aarch64+0xa4> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffc81 // b.ne 366c <_sk_load_bgra_aarch64+0x24> // b.any
+ .long 0x54fffc81 // b.ne 36c8 <_sk_load_bgra_aarch64+0x24> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4e040fe0 // dup v0.4s, wzr
.long 0x4d408120 // ld1 {v0.s}[2], [x9]
.long 0xfd400101 // ldr d1, [x8]
.long 0x6e014000 // ext v0.16b, v0.16b, v1.16b, #8
.long 0x6e004000 // ext v0.16b, v0.16b, v0.16b, #8
- .long 0x17ffffdd // b 366c <_sk_load_bgra_aarch64+0x24>
+ .long 0x17ffffdd // b 36c8 <_sk_load_bgra_aarch64+0x24>
.long 0x4e040fe0 // dup v0.4s, wzr
.long 0x0d408100 // ld1 {v0.s}[0], [x8]
- .long 0x17ffffda // b 366c <_sk_load_bgra_aarch64+0x24>
+ .long 0x17ffffda // b 36c8 <_sk_load_bgra_aarch64+0x24>
HIDDEN _sk_load_bgra_dst_aarch64
.globl _sk_load_bgra_dst_aarch64
@@ -4029,7 +4052,7 @@ _sk_load_bgra_dst_aarch64:
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897908 // add x8, x8, x9, asr #30
- .long 0xb50002e4 // cbnz x4, 3780 <_sk_load_bgra_dst_aarch64+0x78>
+ .long 0xb50002e4 // cbnz x4, 37dc <_sk_load_bgra_dst_aarch64+0x78>
.long 0x3dc00104 // ldr q4, [x8]
.long 0x6f00e625 // movi v5.2d, #0xff000000ff
.long 0x52a77008 // mov w8, #0x3b800000
@@ -4054,22 +4077,22 @@ _sk_load_bgra_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x540001a0 // b.eq 37bc <_sk_load_bgra_dst_aarch64+0xb4> // b.none
+ .long 0x540001a0 // b.eq 3818 <_sk_load_bgra_dst_aarch64+0xb4> // b.none
.long 0x7100093f // cmp w9, #0x2
.long 0x6f00e404 // movi v4.2d, #0x0
- .long 0x540000c0 // b.eq 37ac <_sk_load_bgra_dst_aarch64+0xa4> // b.none
+ .long 0x540000c0 // b.eq 3808 <_sk_load_bgra_dst_aarch64+0xa4> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffc81 // b.ne 372c <_sk_load_bgra_dst_aarch64+0x24> // b.any
+ .long 0x54fffc81 // b.ne 3788 <_sk_load_bgra_dst_aarch64+0x24> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4e040fe4 // dup v4.4s, wzr
.long 0x4d408124 // ld1 {v4.s}[2], [x9]
.long 0xfd400105 // ldr d5, [x8]
.long 0x6e054084 // ext v4.16b, v4.16b, v5.16b, #8
.long 0x6e044084 // ext v4.16b, v4.16b, v4.16b, #8
- .long 0x17ffffdd // b 372c <_sk_load_bgra_dst_aarch64+0x24>
+ .long 0x17ffffdd // b 3788 <_sk_load_bgra_dst_aarch64+0x24>
.long 0x4e040fe4 // dup v4.4s, wzr
.long 0x0d408104 // ld1 {v4.s}[0], [x8]
- .long 0x17ffffda // b 372c <_sk_load_bgra_dst_aarch64+0x24>
+ .long 0x17ffffda // b 3788 <_sk_load_bgra_dst_aarch64+0x24>
HIDDEN _sk_gather_bgra_aarch64
.globl _sk_gather_bgra_aarch64
@@ -4141,24 +4164,24 @@ _sk_store_bgra_aarch64:
.long 0x4eb21e31 // orr v17.16b, v17.16b, v18.16b
.long 0x8b897908 // add x8, x8, x9, asr #30
.long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b
- .long 0xb50000a4 // cbnz x4, 38d0 <_sk_store_bgra_aarch64+0x70>
+ .long 0xb50000a4 // cbnz x4, 392c <_sk_store_bgra_aarch64+0x70>
.long 0x3d800110 // str q16, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x12000489 // and w9, w4, #0x3
.long 0x7100053f // cmp w9, #0x1
- .long 0x54000120 // b.eq 38fc <_sk_store_bgra_aarch64+0x9c> // b.none
+ .long 0x54000120 // b.eq 3958 <_sk_store_bgra_aarch64+0x9c> // b.none
.long 0x7100093f // cmp w9, #0x2
- .long 0x540000a0 // b.eq 38f4 <_sk_store_bgra_aarch64+0x94> // b.none
+ .long 0x540000a0 // b.eq 3950 <_sk_store_bgra_aarch64+0x94> // b.none
.long 0x71000d3f // cmp w9, #0x3
- .long 0x54fffee1 // b.ne 38c4 <_sk_store_bgra_aarch64+0x64> // b.any
+ .long 0x54fffee1 // b.ne 3920 <_sk_store_bgra_aarch64+0x64> // b.any
.long 0x91002109 // add x9, x8, #0x8
.long 0x4d008130 // st1 {v16.s}[2], [x9]
.long 0xfd000110 // str d16, [x8]
- .long 0x17fffff3 // b 38c4 <_sk_store_bgra_aarch64+0x64>
+ .long 0x17fffff3 // b 3920 <_sk_store_bgra_aarch64+0x64>
.long 0x0d008110 // st1 {v16.s}[0], [x8]
- .long 0x17fffff1 // b 38c4 <_sk_store_bgra_aarch64+0x64>
+ .long 0x17fffff1 // b 3920 <_sk_store_bgra_aarch64+0x64>
HIDDEN _sk_load_f16_aarch64
.globl _sk_load_f16_aarch64
@@ -4171,7 +4194,7 @@ _sk_load_f16_aarch64:
.long 0x8b29cd08 // add x8, x8, w9, sxtw #3
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897508 // add x8, x8, x9, asr #29
- .long 0xb5000124 // cbnz x4, 3944 <_sk_load_f16_aarch64+0x40>
+ .long 0xb5000124 // cbnz x4, 39a0 <_sk_load_f16_aarch64+0x40>
.long 0x0c400510 // ld4 {v16.4h-v19.4h}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x0e217a00 // fcvtl v0.4s, v16.4h
@@ -4182,14 +4205,14 @@ _sk_load_f16_aarch64:
.long 0xd61f00a0 // br x5
.long 0x0d606110 // ld4 {v16.h-v19.h}[0], [x8]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54fffee0 // b.eq 3928 <_sk_load_f16_aarch64+0x24> // b.none
+ .long 0x54fffee0 // b.eq 3984 <_sk_load_f16_aarch64+0x24> // b.none
.long 0x91002109 // add x9, x8, #0x8
.long 0x0d606930 // ld4 {v16.h-v19.h}[1], [x9]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fffe63 // b.cc 3928 <_sk_load_f16_aarch64+0x24> // b.lo, b.ul, b.last
+ .long 0x54fffe63 // b.cc 3984 <_sk_load_f16_aarch64+0x24> // b.lo, b.ul, b.last
.long 0x91004108 // add x8, x8, #0x10
.long 0x0d607110 // ld4 {v16.h-v19.h}[2], [x8]
- .long 0x17fffff0 // b 3928 <_sk_load_f16_aarch64+0x24>
+ .long 0x17fffff0 // b 3984 <_sk_load_f16_aarch64+0x24>
HIDDEN _sk_load_f16_dst_aarch64
.globl _sk_load_f16_dst_aarch64
@@ -4202,7 +4225,7 @@ _sk_load_f16_dst_aarch64:
.long 0x8b29cd08 // add x8, x8, w9, sxtw #3
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897508 // add x8, x8, x9, asr #29
- .long 0xb5000124 // cbnz x4, 39ac <_sk_load_f16_dst_aarch64+0x40>
+ .long 0xb5000124 // cbnz x4, 3a08 <_sk_load_f16_dst_aarch64+0x40>
.long 0x0c400510 // ld4 {v16.4h-v19.4h}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x0e217a04 // fcvtl v4.4s, v16.4h
@@ -4213,14 +4236,14 @@ _sk_load_f16_dst_aarch64:
.long 0xd61f00a0 // br x5
.long 0x0d606110 // ld4 {v16.h-v19.h}[0], [x8]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54fffee0 // b.eq 3990 <_sk_load_f16_dst_aarch64+0x24> // b.none
+ .long 0x54fffee0 // b.eq 39ec <_sk_load_f16_dst_aarch64+0x24> // b.none
.long 0x91002109 // add x9, x8, #0x8
.long 0x0d606930 // ld4 {v16.h-v19.h}[1], [x9]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fffe63 // b.cc 3990 <_sk_load_f16_dst_aarch64+0x24> // b.lo, b.ul, b.last
+ .long 0x54fffe63 // b.cc 39ec <_sk_load_f16_dst_aarch64+0x24> // b.lo, b.ul, b.last
.long 0x91004108 // add x8, x8, #0x10
.long 0x0d607110 // ld4 {v16.h-v19.h}[2], [x8]
- .long 0x17fffff0 // b 3990 <_sk_load_f16_dst_aarch64+0x24>
+ .long 0x17fffff0 // b 39ec <_sk_load_f16_dst_aarch64+0x24>
HIDDEN _sk_gather_f16_aarch64
.globl _sk_gather_f16_aarch64
@@ -4278,21 +4301,21 @@ _sk_store_f16_aarch64:
.long 0x8b29cd08 // add x8, x8, w9, sxtw #3
.long 0xd3607c49 // lsl x9, x2, #32
.long 0x8b897508 // add x8, x8, x9, asr #29
- .long 0xb50000a4 // cbnz x4, 3aa4 <_sk_store_f16_aarch64+0x40>
+ .long 0xb50000a4 // cbnz x4, 3b00 <_sk_store_f16_aarch64+0x40>
.long 0x0c000510 // st4 {v16.4h-v19.4h}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0xf100049f // cmp x4, #0x1
.long 0x0d206110 // st4 {v16.h-v19.h}[0], [x8]
- .long 0x54ffff60 // b.eq 3a98 <_sk_store_f16_aarch64+0x34> // b.none
+ .long 0x54ffff60 // b.eq 3af4 <_sk_store_f16_aarch64+0x34> // b.none
.long 0x91002109 // add x9, x8, #0x8
.long 0xf1000c9f // cmp x4, #0x3
.long 0x0d206930 // st4 {v16.h-v19.h}[1], [x9]
- .long 0x54fffee3 // b.cc 3a98 <_sk_store_f16_aarch64+0x34> // b.lo, b.ul, b.last
+ .long 0x54fffee3 // b.cc 3af4 <_sk_store_f16_aarch64+0x34> // b.lo, b.ul, b.last
.long 0x91004108 // add x8, x8, #0x10
.long 0x0d207110 // st4 {v16.h-v19.h}[2], [x8]
- .long 0x17fffff4 // b 3a98 <_sk_store_f16_aarch64+0x34>
+ .long 0x17fffff4 // b 3af4 <_sk_store_f16_aarch64+0x34>
HIDDEN _sk_load_u16_be_aarch64
.globl _sk_load_u16_be_aarch64
@@ -4305,7 +4328,7 @@ _sk_load_u16_be_aarch64:
.long 0x1b037d29 // mul w9, w9, w3
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0x8b2ac508 // add x8, x8, w10, sxtw #1
- .long 0xb5000404 // cbnz x4, 3b68 <_sk_load_u16_be_aarch64+0x9c>
+ .long 0xb5000404 // cbnz x4, 3bc4 <_sk_load_u16_be_aarch64+0x9c>
.long 0x0c400500 // ld4 {v0.4h-v3.4h}, [x8]
.long 0x0f185410 // shl v16.4h, v0.4h, #8
.long 0x2f180411 // ushr v17.4h, v0.4h, #8
@@ -4339,14 +4362,14 @@ _sk_load_u16_be_aarch64:
.long 0xd61f00a0 // br x5
.long 0x0d606100 // ld4 {v0.h-v3.h}[0], [x8]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54fffc00 // b.eq 3af0 <_sk_load_u16_be_aarch64+0x24> // b.none
+ .long 0x54fffc00 // b.eq 3b4c <_sk_load_u16_be_aarch64+0x24> // b.none
.long 0x91002109 // add x9, x8, #0x8
.long 0x0d606920 // ld4 {v0.h-v3.h}[1], [x9]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fffb83 // b.cc 3af0 <_sk_load_u16_be_aarch64+0x24> // b.lo, b.ul, b.last
+ .long 0x54fffb83 // b.cc 3b4c <_sk_load_u16_be_aarch64+0x24> // b.lo, b.ul, b.last
.long 0x91004108 // add x8, x8, #0x10
.long 0x0d607100 // ld4 {v0.h-v3.h}[2], [x8]
- .long 0x17ffffd9 // b 3af0 <_sk_load_u16_be_aarch64+0x24>
+ .long 0x17ffffd9 // b 3b4c <_sk_load_u16_be_aarch64+0x24>
HIDDEN _sk_load_rgb_u16_be_aarch64
.globl _sk_load_rgb_u16_be_aarch64
@@ -4360,7 +4383,7 @@ _sk_load_rgb_u16_be_aarch64:
.long 0x0b020449 // add w9, w2, w2, lsl #1
.long 0xd3607d29 // lsl x9, x9, #32
.long 0x8b897d08 // add x8, x8, x9, asr #31
- .long 0xb5000384 // cbnz x4, 3c20 <_sk_load_rgb_u16_be_aarch64+0x90>
+ .long 0xb5000384 // cbnz x4, 3c7c <_sk_load_rgb_u16_be_aarch64+0x90>
.long 0x0c404500 // ld3 {v0.4h-v2.4h}, [x8]
.long 0x0f185403 // shl v3.4h, v0.4h, #8
.long 0x2f180410 // ushr v16.4h, v0.4h, #8
@@ -4390,14 +4413,14 @@ _sk_load_rgb_u16_be_aarch64:
.long 0xd61f00a0 // br x5
.long 0x0d406100 // ld3 {v0.h-v2.h}[0], [x8]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54fffc80 // b.eq 3bb8 <_sk_load_rgb_u16_be_aarch64+0x28> // b.none
+ .long 0x54fffc80 // b.eq 3c14 <_sk_load_rgb_u16_be_aarch64+0x28> // b.none
.long 0x91001909 // add x9, x8, #0x6
.long 0x0d406920 // ld3 {v0.h-v2.h}[1], [x9]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fffc03 // b.cc 3bb8 <_sk_load_rgb_u16_be_aarch64+0x28> // b.lo, b.ul, b.last
+ .long 0x54fffc03 // b.cc 3c14 <_sk_load_rgb_u16_be_aarch64+0x28> // b.lo, b.ul, b.last
.long 0x91003108 // add x8, x8, #0xc
.long 0x0d407100 // ld3 {v0.h-v2.h}[2], [x8]
- .long 0x17ffffdd // b 3bb8 <_sk_load_rgb_u16_be_aarch64+0x28>
+ .long 0x17ffffdd // b 3c14 <_sk_load_rgb_u16_be_aarch64+0x28>
HIDDEN _sk_store_u16_be_aarch64
.globl _sk_store_u16_be_aarch64
@@ -4437,21 +4460,21 @@ _sk_store_u16_be_aarch64:
.long 0x8b28c548 // add x8, x10, w8, sxtw #1
.long 0x8b29c508 // add x8, x8, w9, sxtw #1
.long 0x0eb41eb3 // orr v19.8b, v21.8b, v20.8b
- .long 0xb50000a4 // cbnz x4, 3ce4 <_sk_store_u16_be_aarch64+0x9c>
+ .long 0xb50000a4 // cbnz x4, 3d40 <_sk_store_u16_be_aarch64+0x9c>
.long 0x0c000510 // st4 {v16.4h-v19.4h}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0xf100049f // cmp x4, #0x1
.long 0x0d206110 // st4 {v16.h-v19.h}[0], [x8]
- .long 0x54ffff60 // b.eq 3cd8 <_sk_store_u16_be_aarch64+0x90> // b.none
+ .long 0x54ffff60 // b.eq 3d34 <_sk_store_u16_be_aarch64+0x90> // b.none
.long 0x91002109 // add x9, x8, #0x8
.long 0xf1000c9f // cmp x4, #0x3
.long 0x0d206930 // st4 {v16.h-v19.h}[1], [x9]
- .long 0x54fffee3 // b.cc 3cd8 <_sk_store_u16_be_aarch64+0x90> // b.lo, b.ul, b.last
+ .long 0x54fffee3 // b.cc 3d34 <_sk_store_u16_be_aarch64+0x90> // b.lo, b.ul, b.last
.long 0x91004108 // add x8, x8, #0x10
.long 0x0d207110 // st4 {v16.h-v19.h}[2], [x8]
- .long 0x17fffff4 // b 3cd8 <_sk_store_u16_be_aarch64+0x90>
+ .long 0x17fffff4 // b 3d34 <_sk_store_u16_be_aarch64+0x90>
HIDDEN _sk_load_f32_aarch64
.globl _sk_load_f32_aarch64
@@ -4464,21 +4487,21 @@ _sk_load_f32_aarch64:
.long 0x1b037d29 // mul w9, w9, w3
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0x8b2ac908 // add x8, x8, w10, sxtw #2
- .long 0xb50000a4 // cbnz x4, 3d3c <_sk_load_f32_aarch64+0x30>
+ .long 0xb50000a4 // cbnz x4, 3d98 <_sk_load_f32_aarch64+0x30>
.long 0x4c400900 // ld4 {v0.4s-v3.4s}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x0d60a100 // ld4 {v0.s-v3.s}[0], [x8]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54ffff60 // b.eq 3d30 <_sk_load_f32_aarch64+0x24> // b.none
+ .long 0x54ffff60 // b.eq 3d8c <_sk_load_f32_aarch64+0x24> // b.none
.long 0x91004109 // add x9, x8, #0x10
.long 0x0d60b120 // ld4 {v0.s-v3.s}[1], [x9]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fffee3 // b.cc 3d30 <_sk_load_f32_aarch64+0x24> // b.lo, b.ul, b.last
+ .long 0x54fffee3 // b.cc 3d8c <_sk_load_f32_aarch64+0x24> // b.lo, b.ul, b.last
.long 0x91008108 // add x8, x8, #0x20
.long 0x4d60a100 // ld4 {v0.s-v3.s}[2], [x8]
- .long 0x17fffff4 // b 3d30 <_sk_load_f32_aarch64+0x24>
+ .long 0x17fffff4 // b 3d8c <_sk_load_f32_aarch64+0x24>
HIDDEN _sk_load_f32_dst_aarch64
.globl _sk_load_f32_dst_aarch64
@@ -4491,21 +4514,21 @@ _sk_load_f32_dst_aarch64:
.long 0x1b037d29 // mul w9, w9, w3
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0x8b2ac908 // add x8, x8, w10, sxtw #2
- .long 0xb50000a4 // cbnz x4, 3d94 <_sk_load_f32_dst_aarch64+0x30>
+ .long 0xb50000a4 // cbnz x4, 3df0 <_sk_load_f32_dst_aarch64+0x30>
.long 0x4c400904 // ld4 {v4.4s-v7.4s}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0x0d60a104 // ld4 {v4.s-v7.s}[0], [x8]
.long 0xf100049f // cmp x4, #0x1
- .long 0x54ffff60 // b.eq 3d88 <_sk_load_f32_dst_aarch64+0x24> // b.none
+ .long 0x54ffff60 // b.eq 3de4 <_sk_load_f32_dst_aarch64+0x24> // b.none
.long 0x91004109 // add x9, x8, #0x10
.long 0x0d60b124 // ld4 {v4.s-v7.s}[1], [x9]
.long 0xf1000c9f // cmp x4, #0x3
- .long 0x54fffee3 // b.cc 3d88 <_sk_load_f32_dst_aarch64+0x24> // b.lo, b.ul, b.last
+ .long 0x54fffee3 // b.cc 3de4 <_sk_load_f32_dst_aarch64+0x24> // b.lo, b.ul, b.last
.long 0x91008108 // add x8, x8, #0x20
.long 0x4d60a104 // ld4 {v4.s-v7.s}[2], [x8]
- .long 0x17fffff4 // b 3d88 <_sk_load_f32_dst_aarch64+0x24>
+ .long 0x17fffff4 // b 3de4 <_sk_load_f32_dst_aarch64+0x24>
HIDDEN _sk_store_f32_aarch64
.globl _sk_store_f32_aarch64
@@ -4518,21 +4541,21 @@ _sk_store_f32_aarch64:
.long 0x1b037d29 // mul w9, w9, w3
.long 0x8b29c908 // add x8, x8, w9, sxtw #2
.long 0x8b2ac908 // add x8, x8, w10, sxtw #2
- .long 0xb50000a4 // cbnz x4, 3dec <_sk_store_f32_aarch64+0x30>
+ .long 0xb50000a4 // cbnz x4, 3e48 <_sk_store_f32_aarch64+0x30>
.long 0x4c000900 // st4 {v0.4s-v3.4s}, [x8]
.long 0xf9400425 // ldr x5, [x1, #8]
.long 0x91004021 // add x1, x1, #0x10
.long 0xd61f00a0 // br x5
.long 0xf100049f // cmp x4, #0x1
.long 0x0d20a100 // st4 {v0.s-v3.s}[0], [x8]
- .long 0x54ffff60 // b.eq 3de0 <_sk_store_f32_aarch64+0x24> // b.none
+ .long 0x54ffff60 // b.eq 3e3c <_sk_store_f32_aarch64+0x24> // b.none
.long 0x91004109 // add x9, x8, #0x10
.long 0xf1000c9f // cmp x4, #0x3
.long 0x0d20b120 // st4 {v0.s-v3.s}[1], [x9]
- .long 0x54fffee3 // b.cc 3de0 <_sk_store_f32_aarch64+0x24> // b.lo, b.ul, b.last
+ .long 0x54fffee3 // b.cc 3e3c <_sk_store_f32_aarch64+0x24> // b.lo, b.ul, b.last
.long 0x91008108 // add x8, x8, #0x20
.long 0x4d20a100 // st4 {v0.s-v3.s}[2], [x8]
- .long 0x17fffff4 // b 3de0 <_sk_store_f32_aarch64+0x24>
+ .long 0x17fffff4 // b 3e3c <_sk_store_f32_aarch64+0x24>
HIDDEN _sk_clamp_x_aarch64
.globl _sk_clamp_x_aarch64
@@ -5025,7 +5048,7 @@ _sk_gradient_aarch64:
.long 0x6f00e411 // movi v17.2d, #0x0
.long 0xf9400109 // ldr x9, [x8]
.long 0xf100093f // cmp x9, #0x2
- .long 0x540001c3 // b.cc 446c <_sk_gradient_aarch64+0x58> // b.lo, b.ul, b.last
+ .long 0x540001c3 // b.cc 44c8 <_sk_gradient_aarch64+0x58> // b.lo, b.ul, b.last
.long 0xf940250a // ldr x10, [x8, #72]
.long 0xd1000529 // sub x9, x9, #0x1
.long 0x6f00e401 // movi v1.2d, #0x0
@@ -5036,7 +5059,7 @@ _sk_gradient_aarch64:
.long 0x6e23e403 // fcmge v3.4s, v0.4s, v3.4s
.long 0x4e221c63 // and v3.16b, v3.16b, v2.16b
.long 0x4ea18461 // add v1.4s, v3.4s, v1.4s
- .long 0xb5ffff69 // cbnz x9, 444c <_sk_gradient_aarch64+0x38>
+ .long 0xb5ffff69 // cbnz x9, 44a8 <_sk_gradient_aarch64+0x38>
.long 0x6f20a431 // uxtl2 v17.2d, v1.4s
.long 0x2f20a421 // uxtl v1.2d, v1.2s
.long 0xa940b10a // ldp x10, x12, [x8, #8]
@@ -8049,78 +8072,75 @@ HIDDEN _sk_colorburn_vfp4
.globl _sk_colorburn_vfp4
FUNCTION(_sk_colorburn_vfp4)
_sk_colorburn_vfp4:
- .long 0xed2d8b0c // vpush {d8-d13}
+ .long 0xed2d8b10 // vpush {d8-d15}
+ .long 0xf3fb4544 // vrecpe.f32 q10, q2
.long 0xe2802030 // add r2, r0, #48
- .long 0xf2c76f50 // vmov.f32 q11, #1
.long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128]
.long 0xe2802040 // add r2, r0, #64
- .long 0xf2668dc6 // vsub.f32 q12, q11, q3
- .long 0xf3b9c540 // vceq.f32 q6, q0, #0
+ .long 0xf3b9a542 // vceq.f32 q5, q1, #0
+ .long 0xf3b9e540 // vceq.f32 q7, q0, #0
.long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128]
.long 0xe2802020 // add r2, r0, #32
- .long 0xf2604de2 // vsub.f32 q10, q8, q9
- .long 0xf266cde0 // vsub.f32 q14, q11, q8
- .long 0xf348edf2 // vmul.f32 q15, q12, q9
- .long 0xf3048dd6 // vmul.f32 q4, q10, q3
- .long 0xeec9baa5 // vdiv.f32 s23, s19, s11
- .long 0xee89ba05 // vdiv.f32 s22, s18, s10
- .long 0xeec8aaa4 // vdiv.f32 s21, s17, s9
- .long 0xee88aa04 // vdiv.f32 s20, s16, s8
- .long 0xf2604fca // vmin.f32 q10, q8, q5
- .long 0xf260ade4 // vsub.f32 q13, q8, q10
- .long 0xf34c4dd4 // vmul.f32 q10, q14, q2
- .long 0xf34a6dd6 // vmul.f32 q11, q13, q3
- .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128]
+ .long 0xf2608de2 // vsub.f32 q12, q8, q9
+ .long 0xf2446f74 // vrecps.f32 q11, q2, q10
+ .long 0xf3444df6 // vmul.f32 q10, q10, q11
+ .long 0xf3486dd6 // vmul.f32 q11, q12, q3
+ .long 0xf3464df4 // vmul.f32 q10, q11, q10
+ .long 0xf2c76f50 // vmov.f32 q11, #1
+ .long 0xf266ade0 // vsub.f32 q13, q11, q8
+ .long 0xf2604fe4 // vmin.f32 q10, q8, q10
+ .long 0xf2668dc6 // vsub.f32 q12, q11, q3
+ .long 0xf34a6dd4 // vmul.f32 q11, q13, q2
+ .long 0xf2604de4 // vsub.f32 q10, q8, q10
+ .long 0xf348cdf2 // vmul.f32 q14, q12, q9
+ .long 0xf30a8dd2 // vmul.f32 q4, q13, q1
+ .long 0xf34aadd0 // vmul.f32 q13, q13, q0
+ .long 0xf3444dd6 // vmul.f32 q10, q10, q3
+ .long 0xf2464de4 // vadd.f32 q10, q11, q10
+ .long 0xf24cede4 // vadd.f32 q15, q14, q10
+ .long 0xf3f94544 // vceq.f32 q10, q2, #0
+ .long 0xf3bb4542 // vrecpe.f32 q2, q1
+ .long 0xf35c41fe // vbsl q10, q14, q15
+ .long 0xf242cf54 // vrecps.f32 q14, q1, q2
+ .long 0xf344ed7c // vmul.f32 q15, q2, q14
+ .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128]
+ .long 0xf2204dec // vsub.f32 q2, q8, q14
.long 0xe2802010 // add r2, r0, #16
- .long 0xf2446de6 // vadd.f32 q11, q10, q11
- .long 0xf20eade6 // vadd.f32 q5, q15, q11
- .long 0xf2606dea // vsub.f32 q11, q8, q13
- .long 0xf24eedc4 // vadd.f32 q15, q15, q2
- .long 0xf3068dd6 // vmul.f32 q4, q11, q3
- .long 0xf3f96544 // vceq.f32 q11, q2, #0
- .long 0xf35e61da // vbsl q11, q15, q5
- .long 0xeec95aa3 // vdiv.f32 s11, s19, s7
- .long 0xee895a03 // vdiv.f32 s10, s18, s6
- .long 0xeec84aa2 // vdiv.f32 s9, s17, s5
- .long 0xee884a02 // vdiv.f32 s8, s16, s4
- .long 0xf260efc4 // vmin.f32 q15, q8, q2
- .long 0xf30c8dd2 // vmul.f32 q4, q14, q1
- .long 0xf3084dfa // vmul.f32 q2, q12, q13
- .long 0xf34ccdd0 // vmul.f32 q14, q14, q0
+ .long 0xf422caef // vld1.64 {d12-d13}, [r2 :128]
+ .long 0xe4912004 // ldr r2, [r1], #4
+ .long 0xf3044d56 // vmul.f32 q2, q2, q3
+ .long 0xf344ed7e // vmul.f32 q15, q2, q15
+ .long 0xf3084dfc // vmul.f32 q2, q12, q14
+ .long 0xf260efee // vmin.f32 q15, q8, q15
.long 0xf260edee // vsub.f32 q15, q8, q15
.long 0xf34eedd6 // vmul.f32 q15, q15, q3
.long 0xf248ed6e // vadd.f32 q15, q4, q15
- .long 0xf204ad6e // vadd.f32 q5, q2, q15
- .long 0xf3f9e542 // vceq.f32 q15, q1, #0
- .long 0xf2044d42 // vadd.f32 q2, q2, q1
- .long 0xf354e15a // vbsl q15, q2, q5
- .long 0xf422aaef // vld1.64 {d10-d11}, [r2 :128]
- .long 0xf2202dca // vsub.f32 q1, q8, q5
- .long 0xe4912004 // ldr r2, [r1], #4
- .long 0xf3022d56 // vmul.f32 q1, q1, q3
- .long 0xeec35aa1 // vdiv.f32 s11, s7, s3
- .long 0xee835a01 // vdiv.f32 s10, s6, s2
- .long 0xeec24aa0 // vdiv.f32 s9, s5, s1
- .long 0xee824a00 // vdiv.f32 s8, s4, s0
- .long 0xf2202fc4 // vmin.f32 q1, q8, q2
- .long 0xf3084dda // vmul.f32 q2, q12, q5
- .long 0xf2202dc2 // vsub.f32 q1, q8, q1
+ .long 0xf244ed6e // vadd.f32 q15, q2, q15
+ .long 0xf314a17e // vbsl q5, q2, q15
+ .long 0xf3fbe540 // vrecpe.f32 q15, q0
+ .long 0xf2024ee0 // vceq.f32 q2, q9, q8
+ .long 0xf2462de2 // vadd.f32 q9, q11, q9
+ .long 0xf2002f7e // vrecps.f32 q1, q0, q15
+ .long 0xf2486d6c // vadd.f32 q11, q4, q14
+ .long 0xf20c0e60 // vceq.f32 q0, q6, q8
+ .long 0xf31241f4 // vbsl q2, q9, q10
+ .long 0xf34eedd2 // vmul.f32 q15, q15, q1
+ .long 0xf2202dcc // vsub.f32 q1, q8, q6
.long 0xf3022d56 // vmul.f32 q1, q1, q3
+ .long 0xf342ed7e // vmul.f32 q15, q1, q15
+ .long 0xf3082ddc // vmul.f32 q1, q12, q6
+ .long 0xf260efee // vmin.f32 q15, q8, q15
+ .long 0xf260edee // vsub.f32 q15, q8, q15
+ .long 0xf34eedd6 // vmul.f32 q15, q15, q3
.long 0xf2006cf8 // vfma.f32 q3, q8, q12
- .long 0xf20c2dc2 // vadd.f32 q1, q14, q1
- .long 0xf2042d42 // vadd.f32 q1, q2, q1
- .long 0xf2044d40 // vadd.f32 q2, q2, q0
- .long 0xf20a0e60 // vceq.f32 q0, q5, q8
- .long 0xf314c152 // vbsl q6, q2, q1
- .long 0xf2024ee0 // vceq.f32 q2, q9, q8
- .long 0xf2442de2 // vadd.f32 q9, q10, q9
- .long 0xf20a2ee0 // vceq.f32 q1, q13, q8
- .long 0xf2484d6a // vadd.f32 q10, q4, q13
- .long 0xf24a0d6c // vadd.f32 q8, q5, q14
- .long 0xf31241f6 // vbsl q2, q9, q11
- .long 0xf31421fe // vbsl q1, q10, q15
- .long 0xf31001dc // vbsl q0, q8, q6
- .long 0xecbd8b0c // vpop {d8-d13}
+ .long 0xf24aedee // vadd.f32 q15, q13, q15
+ .long 0xf242ed6e // vadd.f32 q15, q1, q15
+ .long 0xf312e17e // vbsl q7, q1, q15
+ .long 0xf20c2ee0 // vceq.f32 q1, q14, q8
+ .long 0xf24c0d6a // vadd.f32 q8, q6, q13
+ .long 0xf31621da // vbsl q1, q11, q5
+ .long 0xf31001de // vbsl q0, q8, q7
+ .long 0xecbd8b10 // vpop {d8-d15}
.long 0xe12fff12 // bx r2
HIDDEN _sk_colordodge_vfp4
@@ -8128,72 +8148,69 @@ HIDDEN _sk_colordodge_vfp4
FUNCTION(_sk_colordodge_vfp4)
_sk_colordodge_vfp4:
.long 0xed2d8b0c // vpush {d8-d13}
+ .long 0xf2660d44 // vsub.f32 q8, q3, q2
.long 0xe2802030 // add r2, r0, #48
- .long 0xf226ad44 // vsub.f32 q5, q3, q2
+ .long 0xf202ae46 // vceq.f32 q5, q1, q3
+ .long 0xf200ce46 // vceq.f32 q6, q0, q3
+ .long 0xf3fb2560 // vrecpe.f32 q9, q8
+ .long 0xf2404ff2 // vrecps.f32 q10, q8, q9
.long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128]
.long 0xe2802040 // add r2, r0, #64
- .long 0xf300cdd6 // vmul.f32 q6, q8, q3
- .long 0xf2c74f50 // vmov.f32 q10, #1
- .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128]
+ .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128]
.long 0xe2802020 // add r2, r0, #32
- .long 0xf264ade2 // vsub.f32 q13, q10, q9
- .long 0xf2646dc6 // vsub.f32 q11, q10, q3
- .long 0xeecd9aab // vdiv.f32 s19, s27, s23
- .long 0xee8d9a0b // vdiv.f32 s18, s26, s22
- .long 0xeecc8aaa // vdiv.f32 s17, s25, s21
- .long 0xee8c8a0a // vdiv.f32 s16, s24, s20
- .long 0xf262cfc8 // vmin.f32 q14, q9, q4
- .long 0xf34a8dd4 // vmul.f32 q12, q13, q2
+ .long 0xf3422df4 // vmul.f32 q9, q9, q10
+ .long 0xf3404dd6 // vmul.f32 q10, q8, q3
+ .long 0xf3442df2 // vmul.f32 q9, q10, q9
+ .long 0xf2c74f50 // vmov.f32 q10, #1
+ .long 0xf264ade6 // vsub.f32 q13, q10, q11
+ .long 0xf266cfe2 // vmin.f32 q14, q11, q9
+ .long 0xf2648dc6 // vsub.f32 q12, q10, q3
+ .long 0xf34a2dd4 // vmul.f32 q9, q13, q2
.long 0xf34c4dd6 // vmul.f32 q10, q14, q3
- .long 0xf346cdf0 // vmul.f32 q14, q11, q8
- .long 0xf248ede4 // vadd.f32 q15, q12, q10
- .long 0xf20c8dc4 // vadd.f32 q4, q14, q2
+ .long 0xf348cdf0 // vmul.f32 q14, q12, q8
+ .long 0xf242ede4 // vadd.f32 q15, q9, q10
.long 0xf2444e46 // vceq.f32 q10, q2, q3
+ .long 0xf20c4dc4 // vadd.f32 q2, q14, q2
.long 0xf24ccdee // vadd.f32 q14, q14, q15
- .long 0xf2264d42 // vsub.f32 q2, q3, q1
- .long 0xf358417c // vbsl q10, q4, q14
+ .long 0xf266ed42 // vsub.f32 q15, q3, q1
+ .long 0xf354417c // vbsl q10, q2, q14
+ .long 0xf3fbc56e // vrecpe.f32 q14, q15
+ .long 0xf24eeffc // vrecps.f32 q15, q15, q14
+ .long 0xf34cedfe // vmul.f32 q15, q14, q15
.long 0xf462caef // vld1.64 {d28-d29}, [r2 :128]
+ .long 0xf30c4dd6 // vmul.f32 q2, q14, q3
.long 0xe2802010 // add r2, r0, #16
- .long 0xf30c8dd6 // vmul.f32 q4, q14, q3
- .long 0xeec9baa5 // vdiv.f32 s23, s19, s11
- .long 0xee89ba05 // vdiv.f32 s22, s18, s10
- .long 0xeec8aaa4 // vdiv.f32 s21, s17, s9
- .long 0xee88aa04 // vdiv.f32 s20, s16, s8
- .long 0xf262efca // vmin.f32 q15, q9, q5
- .long 0xf30a4dd2 // vmul.f32 q2, q13, q1
- .long 0xf3068dfc // vmul.f32 q4, q11, q14
- .long 0xf34aadd0 // vmul.f32 q13, q13, q0
- .long 0xf34eedd6 // vmul.f32 q15, q15, q3
- .long 0xf244ed6e // vadd.f32 q15, q2, q15
- .long 0xf208ad6e // vadd.f32 q5, q4, q15
- .long 0xf242ee46 // vceq.f32 q15, q1, q3
+ .long 0xf3088dfc // vmul.f32 q4, q12, q14
+ .long 0xf344ed7e // vmul.f32 q15, q2, q15
+ .long 0xf266efee // vmin.f32 q15, q11, q15
+ .long 0xf30e4dd6 // vmul.f32 q2, q15, q3
+ .long 0xf34aedd2 // vmul.f32 q15, q13, q1
.long 0xf2082d42 // vadd.f32 q1, q4, q1
- .long 0xf2268d40 // vsub.f32 q4, q3, q0
- .long 0xf352e15a // vbsl q15, q1, q5
- .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128]
- .long 0xf302ad56 // vmul.f32 q5, q1, q3
+ .long 0xf34aadd0 // vmul.f32 q13, q13, q0
+ .long 0xf20e4dc4 // vadd.f32 q2, q15, q2
+ .long 0xf2084d44 // vadd.f32 q2, q4, q2
+ .long 0xf312a154 // vbsl q5, q1, q2
+ .long 0xf2262d40 // vsub.f32 q1, q3, q0
+ .long 0xf3bb4542 // vrecpe.f32 q2, q1
+ .long 0xf2022f54 // vrecps.f32 q1, q1, q2
+ .long 0xf3042d52 // vmul.f32 q1, q2, q1
+ .long 0xf4224aef // vld1.64 {d4-d5}, [r2 :128]
+ .long 0xf3048d56 // vmul.f32 q4, q2, q3
.long 0xe4912004 // ldr r2, [r1], #4
- .long 0xeecbdaa9 // vdiv.f32 s27, s23, s19
- .long 0xee8bda09 // vdiv.f32 s26, s22, s18
- .long 0xeecacaa8 // vdiv.f32 s25, s21, s17
- .long 0xee8aca08 // vdiv.f32 s24, s20, s16
- .long 0xf2228fcc // vmin.f32 q4, q9, q6
- .long 0xf306add2 // vmul.f32 q5, q11, q1
- .long 0xf200ce46 // vceq.f32 q6, q0, q3
- .long 0xf3088d56 // vmul.f32 q4, q4, q3
- .long 0xf2026cf6 // vfma.f32 q3, q9, q11
- .long 0xf20a0d40 // vadd.f32 q0, q5, q0
- .long 0xf20a8dc8 // vadd.f32 q4, q13, q4
- .long 0xf2482de0 // vadd.f32 q9, q12, q8
- .long 0xf2446d6c // vadd.f32 q11, q2, q14
- .long 0xf3b94560 // vceq.f32 q2, q8, #0
- .long 0xf2428d6a // vadd.f32 q12, q1, q13
- .long 0xf20a8d48 // vadd.f32 q4, q5, q4
- .long 0xf310c158 // vbsl q6, q0, q4
- .long 0xf3b90542 // vceq.f32 q0, q1, #0
+ .long 0xf3082d52 // vmul.f32 q1, q4, q1
+ .long 0xf3088dd4 // vmul.f32 q4, q12, q2
+ .long 0xf2262fc2 // vmin.f32 q1, q11, q1
+ .long 0xf2080d40 // vadd.f32 q0, q4, q0
+ .long 0xf3022d56 // vmul.f32 q1, q1, q3
+ .long 0xf2066cf8 // vfma.f32 q3, q11, q12
+ .long 0xf20a2dc2 // vadd.f32 q1, q13, q1
+ .long 0xf2082d42 // vadd.f32 q1, q4, q1
+ .long 0xf310c152 // vbsl q6, q0, q1
+ .long 0xf3b90544 // vceq.f32 q0, q2, #0
.long 0xf3b9256c // vceq.f32 q1, q14, #0
- .long 0xf31801dc // vbsl q0, q12, q6
- .long 0xf31621fe // vbsl q1, q11, q15
+ .long 0xf3b94560 // vceq.f32 q2, q8, #0
+ .long 0xf31a01dc // vbsl q0, q13, q6
+ .long 0xf31e21da // vbsl q1, q15, q5
.long 0xf31241f4 // vbsl q2, q9, q10
.long 0xecbd8b0c // vpop {d8-d13}
.long 0xe12fff12 // bx r2
@@ -9263,7 +9280,7 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe2804020 // add r4, r0, #32
.long 0xe0822106 // add r2, r2, r6, lsl #2
- .long 0x1a000032 // bne 1ba0 <sk_srcover_rgba_8888_vfp4+0x110>
+ .long 0x1a000032 // bne 1b88 <sk_srcover_rgba_8888_vfp4+0x110>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7405f // vmov.i32 q10, #255
.long 0xe28f6f51 // add r6, pc, #324
@@ -9308,7 +9325,7 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xf2f0c57c // vshl.s32 q14, q14, #16
.long 0xf26e01f4 // vorr q8, q15, q10
.long 0xf26001fc // vorr q8, q8, q14
- .long 0x1a000015 // bne 1be0 <sk_srcover_rgba_8888_vfp4+0x150>
+ .long 0x1a000015 // bne 1bc8 <sk_srcover_rgba_8888_vfp4+0x150>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -9317,12 +9334,12 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2036003 // and r6, r3, #3
.long 0xe3560001 // cmp r6, #1
- .long 0x0a000017 // beq 1c0c <sk_srcover_rgba_8888_vfp4+0x17c>
+ .long 0x0a000017 // beq 1bf4 <sk_srcover_rgba_8888_vfp4+0x17c>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3560002 // cmp r6, #2
- .long 0x0a000005 // beq 1bd0 <sk_srcover_rgba_8888_vfp4+0x140>
+ .long 0x0a000005 // beq 1bb8 <sk_srcover_rgba_8888_vfp4+0x140>
.long 0xe3560003 // cmp r6, #3
- .long 0x1affffc5 // bne 1ad8 <sk_srcover_rgba_8888_vfp4+0x48>
+ .long 0x1affffc5 // bne 1ac0 <sk_srcover_rgba_8888_vfp4+0x48>
.long 0xe3a06000 // mov r6, #0
.long 0xeea06b90 // vdup.32 q8, r6
.long 0xe2826008 // add r6, r2, #8
@@ -9330,24 +9347,24 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffbd // b 1ad8 <sk_srcover_rgba_8888_vfp4+0x48>
+ .long 0xeaffffbd // b 1ac0 <sk_srcover_rgba_8888_vfp4+0x48>
.long 0xe2033003 // and r3, r3, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000b // beq 1c1c <sk_srcover_rgba_8888_vfp4+0x18c>
+ .long 0x0a00000b // beq 1c04 <sk_srcover_rgba_8888_vfp4+0x18c>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 1c04 <sk_srcover_rgba_8888_vfp4+0x174>
+ .long 0x0a000003 // beq 1bec <sk_srcover_rgba_8888_vfp4+0x174>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe3 // bne 1b8c <sk_srcover_rgba_8888_vfp4+0xfc>
+ .long 0x1affffe3 // bne 1b74 <sk_srcover_rgba_8888_vfp4+0xfc>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeaffffdf // b 1b8c <sk_srcover_rgba_8888_vfp4+0xfc>
+ .long 0xeaffffdf // b 1b74 <sk_srcover_rgba_8888_vfp4+0xfc>
.long 0xe3a06000 // mov r6, #0
.long 0xeea06b90 // vdup.32 q8, r6
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffae // b 1ad8 <sk_srcover_rgba_8888_vfp4+0x48>
+ .long 0xeaffffae // b 1ac0 <sk_srcover_rgba_8888_vfp4+0x48>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd9 // b 1b8c <sk_srcover_rgba_8888_vfp4+0xfc>
+ .long 0xeaffffd9 // b 1b74 <sk_srcover_rgba_8888_vfp4+0xfc>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -9992,7 +10009,7 @@ _sk_scale_u8_vfp4:
.long 0xe5922004 // ldr r2, [r2, #4]
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000013 // bne 250c <sk_scale_u8_vfp4+0x7c>
+ .long 0x1a000013 // bne 24f4 <sk_scale_u8_vfp4+0x7c>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -10015,12 +10032,12 @@ _sk_scale_u8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 2564 <sk_scale_u8_vfp4+0xd4>
+ .long 0x0a000012 // beq 254c <sk_scale_u8_vfp4+0xd4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 253c <sk_scale_u8_vfp4+0xac>
+ .long 0x0a000005 // beq 2524 <sk_scale_u8_vfp4+0xac>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe8 // bne 24d0 <sk_scale_u8_vfp4+0x40>
+ .long 0x1affffe8 // bne 24b8 <sk_scale_u8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -10034,12 +10051,12 @@ _sk_scale_u8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffda // b 24d0 <sk_scale_u8_vfp4+0x40>
+ .long 0xeaffffda // b 24b8 <sk_scale_u8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd5 // b 24d0 <sk_scale_u8_vfp4+0x40>
+ .long 0xeaffffd5 // b 24b8 <sk_scale_u8_vfp4+0x40>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -10091,7 +10108,7 @@ _sk_lerp_u8_vfp4:
.long 0xe0824003 // add r4, r2, r3
.long 0xe2803020 // add r3, r0, #32
.long 0xe2802010 // add r2, r0, #16
- .long 0x1a00001f // bne 26a0 <sk_lerp_u8_vfp4+0xb8>
+ .long 0x1a00001f // bne 2688 <sk_lerp_u8_vfp4+0xb8>
.long 0xe5944000 // ldr r4, [r4]
.long 0xe58d4000 // str r4, [sp]
.long 0xe1a0400d // mov r4, sp
@@ -10126,12 +10143,12 @@ _sk_lerp_u8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000012 // beq 26f8 <sk_lerp_u8_vfp4+0x110>
+ .long 0x0a000012 // beq 26e0 <sk_lerp_u8_vfp4+0x110>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 26d0 <sk_lerp_u8_vfp4+0xe8>
+ .long 0x0a000005 // beq 26b8 <sk_lerp_u8_vfp4+0xe8>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdc // bne 2634 <sk_lerp_u8_vfp4+0x4c>
+ .long 0x1affffdc // bne 261c <sk_lerp_u8_vfp4+0x4c>
.long 0xe3a06000 // mov r6, #0
.long 0xe5d45002 // ldrb r5, [r4, #2]
.long 0xee806bb0 // vdup.16 d16, r6
@@ -10145,12 +10162,12 @@ _sk_lerp_u8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffce // b 2634 <sk_lerp_u8_vfp4+0x4c>
+ .long 0xeaffffce // b 261c <sk_lerp_u8_vfp4+0x4c>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d44000 // ldrb r4, [r4]
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xee004bb0 // vmov.16 d16[0], r4
- .long 0xeaffffc9 // b 2634 <sk_lerp_u8_vfp4+0x4c>
+ .long 0xeaffffc9 // b 261c <sk_lerp_u8_vfp4+0x4c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -10175,7 +10192,7 @@ _sk_lerp_565_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2803040 // add r3, r0, #64
.long 0xe2802030 // add r2, r0, #48
- .long 0x1a00002e // bne 2818 <sk_lerp_565_vfp4+0xf8>
+ .long 0x1a00002e // bne 2800 <sk_lerp_565_vfp4+0xf8>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a04e7e // mov r4, #2016
@@ -10225,12 +10242,12 @@ _sk_lerp_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 286c <sk_lerp_565_vfp4+0x14c>
+ .long 0x0a000011 // beq 2854 <sk_lerp_565_vfp4+0x14c>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 2848 <sk_lerp_565_vfp4+0x128>
+ .long 0x0a000005 // beq 2830 <sk_lerp_565_vfp4+0x128>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffc9 // bne 2760 <sk_lerp_565_vfp4+0x40>
+ .long 0x1affffc9 // bne 2748 <sk_lerp_565_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -10243,11 +10260,11 @@ _sk_lerp_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffbc // b 2760 <sk_lerp_565_vfp4+0x40>
+ .long 0xeaffffbc // b 2748 <sk_lerp_565_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffb8 // b 2760 <sk_lerp_565_vfp4+0x40>
+ .long 0xeaffffb8 // b 2748 <sk_lerp_565_vfp4+0x40>
.long 0xe320f000 // nop {0}
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
@@ -10273,7 +10290,7 @@ _sk_load_tables_vfp4:
.long 0xe5964000 // ldr r4, [r6]
.long 0xe3530000 // cmp r3, #0
.long 0xe084e102 // add lr, r4, r2, lsl #2
- .long 0x1a000036 // bne 29ac <sk_load_tables_vfp4+0xfc>
+ .long 0x1a000036 // bne 2994 <sk_load_tables_vfp4+0xfc>
.long 0xf46e0a8f // vld1.32 {d16-d17}, [lr]
.long 0xf3c7405f // vmov.i32 q10, #255
.long 0xe5967004 // ldr r7, [r6, #4]
@@ -10331,12 +10348,12 @@ _sk_load_tables_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe203c003 // and ip, r3, #3
.long 0xe35c0001 // cmp ip, #1
- .long 0x0a00000c // beq 29ec <sk_load_tables_vfp4+0x13c>
+ .long 0x0a00000c // beq 29d4 <sk_load_tables_vfp4+0x13c>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe35c0002 // cmp ip, #2
- .long 0x0a000005 // beq 29dc <sk_load_tables_vfp4+0x12c>
+ .long 0x0a000005 // beq 29c4 <sk_load_tables_vfp4+0x12c>
.long 0xe35c0003 // cmp ip, #3
- .long 0x1affffc1 // bne 28d4 <sk_load_tables_vfp4+0x24>
+ .long 0x1affffc1 // bne 28bc <sk_load_tables_vfp4+0x24>
.long 0xe3a02000 // mov r2, #0
.long 0xeea02b90 // vdup.32 q8, r2
.long 0xe28e2008 // add r2, lr, #8
@@ -10344,11 +10361,11 @@ _sk_load_tables_vfp4:
.long 0xedde2b00 // vldr d18, [lr]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffb9 // b 28d4 <sk_load_tables_vfp4+0x24>
+ .long 0xeaffffb9 // b 28bc <sk_load_tables_vfp4+0x24>
.long 0xe3a02000 // mov r2, #0
.long 0xeea02b90 // vdup.32 q8, r2
.long 0xf4ee083f // vld1.32 {d16[0]}, [lr :32]
- .long 0xeaffffb5 // b 28d4 <sk_load_tables_vfp4+0x24>
+ .long 0xeaffffb5 // b 28bc <sk_load_tables_vfp4+0x24>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -10366,7 +10383,7 @@ _sk_load_tables_u16_be_vfp4:
.long 0xe5982000 // ldr r2, [r8]
.long 0xe35e0000 // cmp lr, #0
.long 0xe082c183 // add ip, r2, r3, lsl #3
- .long 0x1a000039 // bne 2b18 <sk_load_tables_u16_be_vfp4+0x108>
+ .long 0x1a000039 // bne 2b00 <sk_load_tables_u16_be_vfp4+0x108>
.long 0xf46c004f // vld4.16 {d16-d19}, [ip]
.long 0xf3c72b3f // vbic.i16 d18, #65280
.long 0xe5986004 // ldr r6, [r8, #4]
@@ -10427,14 +10444,14 @@ _sk_load_tables_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4ec070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [ip]
.long 0xe35e0001 // cmp lr, #1
- .long 0x0affffc3 // beq 2a34 <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0x0affffc3 // beq 2a1c <sk_load_tables_u16_be_vfp4+0x24>
.long 0xe28c2008 // add r2, ip, #8
.long 0xe35e0003 // cmp lr, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3affffbf // bcc 2a34 <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0x3affffbf // bcc 2a1c <sk_load_tables_u16_be_vfp4+0x24>
.long 0xe28c2010 // add r2, ip, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffbc // b 2a34 <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0xeaffffbc // b 2a1c <sk_load_tables_u16_be_vfp4+0x24>
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -10452,7 +10469,7 @@ _sk_load_tables_rgb_u16_be_vfp4:
.long 0xe5982000 // ldr r2, [r8]
.long 0xe35e0000 // cmp lr, #0
.long 0xe082c083 // add ip, r2, r3, lsl #1
- .long 0x1a000033 // bne 2c44 <sk_load_tables_rgb_u16_be_vfp4+0xf4>
+ .long 0x1a000033 // bne 2c2c <sk_load_tables_rgb_u16_be_vfp4+0xf4>
.long 0xf46c044f // vld3.16 {d16-d18}, [ip]
.long 0xf3c72b3f // vbic.i16 d18, #65280
.long 0xe5987004 // ldr r7, [r8, #4]
@@ -10507,14 +10524,14 @@ _sk_load_tables_rgb_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4ec060f // vld3.16 {d16[0],d17[0],d18[0]}, [ip]
.long 0xe35e0001 // cmp lr, #1
- .long 0x0affffc9 // beq 2b78 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0x0affffc9 // beq 2b60 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe28c2006 // add r2, ip, #6
.long 0xe35e0003 // cmp lr, #3
.long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2]
- .long 0x3affffc5 // bcc 2b78 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0x3affffc5 // bcc 2b60 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe28c200c // add r2, ip, #12
.long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2]
- .long 0xeaffffc2 // b 2b78 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0xeaffffc2 // b 2b60 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe320f000 // nop {0}
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
@@ -11567,7 +11584,7 @@ _sk_load_a8_vfp4:
.long 0xe5922004 // ldr r2, [r2, #4]
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000012 // bne 3c28 <sk_load_a8_vfp4+0x78>
+ .long 0x1a000012 // bne 3c10 <sk_load_a8_vfp4+0x78>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -11589,12 +11606,12 @@ _sk_load_a8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 3c80 <sk_load_a8_vfp4+0xd0>
+ .long 0x0a000012 // beq 3c68 <sk_load_a8_vfp4+0xd0>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 3c58 <sk_load_a8_vfp4+0xa8>
+ .long 0x0a000005 // beq 3c40 <sk_load_a8_vfp4+0xa8>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe9 // bne 3bf0 <sk_load_a8_vfp4+0x40>
+ .long 0x1affffe9 // bne 3bd8 <sk_load_a8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -11608,12 +11625,12 @@ _sk_load_a8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffdb // b 3bf0 <sk_load_a8_vfp4+0x40>
+ .long 0xeaffffdb // b 3bd8 <sk_load_a8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd6 // b 3bf0 <sk_load_a8_vfp4+0x40>
+ .long 0xeaffffd6 // b 3bd8 <sk_load_a8_vfp4+0x40>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -11642,7 +11659,7 @@ _sk_load_a8_dst_vfp4:
.long 0xf4430aef // vst1.64 {d16-d17}, [r3 :128]
.long 0xe082300c // add r3, r2, ip
.long 0xe280c040 // add ip, r0, #64
- .long 0x1a000011 // bne 3d3c <sk_load_a8_dst_vfp4+0x94>
+ .long 0x1a000011 // bne 3d24 <sk_load_a8_dst_vfp4+0x94>
.long 0xe5932000 // ldr r2, [r3]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -11663,12 +11680,12 @@ _sk_load_a8_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe20e2003 // and r2, lr, #3
.long 0xe3520001 // cmp r2, #1
- .long 0x0a000012 // beq 3d94 <sk_load_a8_dst_vfp4+0xec>
+ .long 0x0a000012 // beq 3d7c <sk_load_a8_dst_vfp4+0xec>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3520002 // cmp r2, #2
- .long 0x0a000005 // beq 3d6c <sk_load_a8_dst_vfp4+0xc4>
+ .long 0x0a000005 // beq 3d54 <sk_load_a8_dst_vfp4+0xc4>
.long 0xe3520003 // cmp r2, #3
- .long 0x1affffea // bne 3d08 <sk_load_a8_dst_vfp4+0x60>
+ .long 0x1affffea // bne 3cf0 <sk_load_a8_dst_vfp4+0x60>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d32002 // ldrb r2, [r3, #2]
.long 0xee805bb0 // vdup.16 d16, r5
@@ -11682,12 +11699,12 @@ _sk_load_a8_dst_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffdc // b 3d08 <sk_load_a8_dst_vfp4+0x60>
+ .long 0xeaffffdc // b 3cf0 <sk_load_a8_dst_vfp4+0x60>
.long 0xe5d32000 // ldrb r2, [r3]
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd7 // b 3d08 <sk_load_a8_dst_vfp4+0x60>
+ .long 0xeaffffd7 // b 3cf0 <sk_load_a8_dst_vfp4+0x60>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -11753,7 +11770,7 @@ _sk_store_a8_vfp4:
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000005 // bne 3ea0 <sk_store_a8_vfp4+0x58>
+ .long 0x1a000005 // bne 3e88 <sk_store_a8_vfp4+0x58>
.long 0xf3f20121 // vuzp.8 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
@@ -11762,21 +11779,21 @@ _sk_store_a8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000a // beq 3ed8 <sk_store_a8_vfp4+0x90>
+ .long 0x0a00000a // beq 3ec0 <sk_store_a8_vfp4+0x90>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 3ec4 <sk_store_a8_vfp4+0x7c>
+ .long 0x0a000003 // beq 3eac <sk_store_a8_vfp4+0x7c>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 3e90 <sk_store_a8_vfp4+0x48>
+ .long 0x1afffff4 // bne 3e78 <sk_store_a8_vfp4+0x48>
.long 0xeeb03bb0 // vmov.u16 r3, d16[2]
.long 0xe5c23002 // strb r3, [r2, #2]
.long 0xee903bf0 // vmov.u16 r3, d16[1]
.long 0xee904bb0 // vmov.u16 r4, d16[0]
.long 0xe5c23001 // strb r3, [r2, #1]
.long 0xe5c24000 // strb r4, [r2]
- .long 0xeaffffed // b 3e90 <sk_store_a8_vfp4+0x48>
+ .long 0xeaffffed // b 3e78 <sk_store_a8_vfp4+0x48>
.long 0xee903bb0 // vmov.u16 r3, d16[0]
.long 0xe5c23000 // strb r3, [r2]
- .long 0xeaffffea // b 3e90 <sk_store_a8_vfp4+0x48>
+ .long 0xeaffffea // b 3e78 <sk_store_a8_vfp4+0x48>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -11797,7 +11814,7 @@ _sk_load_g8_vfp4:
.long 0xe5922004 // ldr r2, [r2, #4]
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000013 // bne 3f74 <sk_load_g8_vfp4+0x7c>
+ .long 0x1a000013 // bne 3f5c <sk_load_g8_vfp4+0x7c>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -11820,12 +11837,12 @@ _sk_load_g8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 3fcc <sk_load_g8_vfp4+0xd4>
+ .long 0x0a000012 // beq 3fb4 <sk_load_g8_vfp4+0xd4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 3fa4 <sk_load_g8_vfp4+0xac>
+ .long 0x0a000005 // beq 3f8c <sk_load_g8_vfp4+0xac>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe8 // bne 3f38 <sk_load_g8_vfp4+0x40>
+ .long 0x1affffe8 // bne 3f20 <sk_load_g8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -11839,12 +11856,12 @@ _sk_load_g8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffda // b 3f38 <sk_load_g8_vfp4+0x40>
+ .long 0xeaffffda // b 3f20 <sk_load_g8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd5 // b 3f38 <sk_load_g8_vfp4+0x40>
+ .long 0xeaffffd5 // b 3f20 <sk_load_g8_vfp4+0x40>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -11871,7 +11888,7 @@ _sk_load_g8_dst_vfp4:
.long 0xe0824003 // add r4, r2, r3
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a000015 // bne 4090 <sk_load_g8_dst_vfp4+0x90>
+ .long 0x1a000015 // bne 4078 <sk_load_g8_dst_vfp4+0x90>
.long 0xe5944000 // ldr r4, [r4]
.long 0xe58d4000 // str r4, [sp]
.long 0xe1a0400d // mov r4, sp
@@ -11896,12 +11913,12 @@ _sk_load_g8_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000012 // beq 40e8 <sk_load_g8_dst_vfp4+0xe8>
+ .long 0x0a000012 // beq 40d0 <sk_load_g8_dst_vfp4+0xe8>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 40c0 <sk_load_g8_dst_vfp4+0xc0>
+ .long 0x0a000005 // beq 40a8 <sk_load_g8_dst_vfp4+0xc0>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffe6 // bne 404c <sk_load_g8_dst_vfp4+0x4c>
+ .long 0x1affffe6 // bne 4034 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe3a06000 // mov r6, #0
.long 0xe5d45002 // ldrb r5, [r4, #2]
.long 0xee806bb0 // vdup.16 d16, r6
@@ -11915,12 +11932,12 @@ _sk_load_g8_dst_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffd8 // b 404c <sk_load_g8_dst_vfp4+0x4c>
+ .long 0xeaffffd8 // b 4034 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d44000 // ldrb r4, [r4]
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xee004bb0 // vmov.16 d16[0], r4
- .long 0xeaffffd3 // b 404c <sk_load_g8_dst_vfp4+0x4c>
+ .long 0xeaffffd3 // b 4034 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -11987,7 +12004,7 @@ _sk_load_565_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082208e // add r2, r2, lr, lsl #1
- .long 0x1a00001b // bne 4250 <sk_load_565_vfp4+0xa0>
+ .long 0x1a00001b // bne 4238 <sk_load_565_vfp4+0xa0>
.long 0xf462074f // vld1.16 {d16}, [r2]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a02e7e // mov r2, #2016
@@ -12018,12 +12035,12 @@ _sk_load_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000011 // beq 42a4 <sk_load_565_vfp4+0xf4>
+ .long 0x0a000011 // beq 428c <sk_load_565_vfp4+0xf4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4280 <sk_load_565_vfp4+0xd0>
+ .long 0x0a000005 // beq 4268 <sk_load_565_vfp4+0xd0>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffdc // bne 41e4 <sk_load_565_vfp4+0x34>
+ .long 0x1affffdc // bne 41cc <sk_load_565_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xe2823004 // add r3, r2, #4
@@ -12036,11 +12053,11 @@ _sk_load_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcf // b 41e4 <sk_load_565_vfp4+0x34>
+ .long 0xeaffffcf // b 41cc <sk_load_565_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffcb // b 41e4 <sk_load_565_vfp4+0x34>
+ .long 0xeaffffcb // b 41cc <sk_load_565_vfp4+0x34>
.long 0xe320f000 // nop {0}
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
@@ -12077,7 +12094,7 @@ _sk_load_565_dst_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001f // bne 43b4 <sk_load_565_dst_vfp4+0xbc>
+ .long 0x1a00001f // bne 439c <sk_load_565_dst_vfp4+0xbc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a04e7e // mov r4, #2016
@@ -12112,12 +12129,12 @@ _sk_load_565_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 4408 <sk_load_565_dst_vfp4+0x110>
+ .long 0x0a000011 // beq 43f0 <sk_load_565_dst_vfp4+0x110>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 43e4 <sk_load_565_dst_vfp4+0xec>
+ .long 0x0a000005 // beq 43cc <sk_load_565_dst_vfp4+0xec>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffd8 // bne 4338 <sk_load_565_dst_vfp4+0x40>
+ .long 0x1affffd8 // bne 4320 <sk_load_565_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -12130,11 +12147,11 @@ _sk_load_565_dst_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcb // b 4338 <sk_load_565_dst_vfp4+0x40>
+ .long 0xeaffffcb // b 4320 <sk_load_565_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffc7 // b 4338 <sk_load_565_dst_vfp4+0x40>
+ .long 0xeaffffc7 // b 4320 <sk_load_565_dst_vfp4+0x40>
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
@@ -12246,7 +12263,7 @@ _sk_store_565_vfp4:
.long 0xf26401f0 // vorr q8, q10, q8
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000004 // bne 45c4 <sk_store_565_vfp4+0x84>
+ .long 0x1a000004 // bne 45ac <sk_store_565_vfp4+0x84>
.long 0xf442074f // vst1.16 {d16}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -12254,11 +12271,11 @@ _sk_store_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4604 <sk_store_565_vfp4+0xc4>
+ .long 0x0a00000c // beq 45ec <sk_store_565_vfp4+0xc4>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 45e8 <sk_store_565_vfp4+0xa8>
+ .long 0x0a000003 // beq 45d0 <sk_store_565_vfp4+0xa8>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 45b4 <sk_store_565_vfp4+0x74>
+ .long 0x1afffff4 // bne 459c <sk_store_565_vfp4+0x74>
.long 0xe2823004 // add r3, r2, #4
.long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16]
.long 0xee903bb0 // vmov.u16 r3, d16[0]
@@ -12267,9 +12284,9 @@ _sk_store_565_vfp4:
.long 0xee204b90 // vmov.32 d16[1], r4
.long 0xf3f60121 // vuzp.16 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
- .long 0xeaffffeb // b 45b4 <sk_store_565_vfp4+0x74>
+ .long 0xeaffffeb // b 459c <sk_store_565_vfp4+0x74>
.long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffe9 // b 45b4 <sk_store_565_vfp4+0x74>
+ .long 0xeaffffe9 // b 459c <sk_store_565_vfp4+0x74>
.long 0xe320f000 // nop {0}
.long 0x427c0000 // .word 0x427c0000
.long 0x427c0000 // .word 0x427c0000
@@ -12291,7 +12308,7 @@ _sk_load_4444_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082208e // add r2, r2, lr, lsl #1
- .long 0x1a00001e // bne 46cc <sk_load_4444_vfp4+0xac>
+ .long 0x1a00001e // bne 46b4 <sk_load_4444_vfp4+0xac>
.long 0xf462074f // vld1.16 {d16}, [r2]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe28f20d0 // add r2, pc, #208
@@ -12325,12 +12342,12 @@ _sk_load_4444_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000011 // beq 4720 <sk_load_4444_vfp4+0x100>
+ .long 0x0a000011 // beq 4708 <sk_load_4444_vfp4+0x100>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 46fc <sk_load_4444_vfp4+0xdc>
+ .long 0x0a000005 // beq 46e4 <sk_load_4444_vfp4+0xdc>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffd9 // bne 4654 <sk_load_4444_vfp4+0x34>
+ .long 0x1affffd9 // bne 463c <sk_load_4444_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xe2823004 // add r3, r2, #4
@@ -12343,11 +12360,11 @@ _sk_load_4444_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcc // b 4654 <sk_load_4444_vfp4+0x34>
+ .long 0xeaffffcc // b 463c <sk_load_4444_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffc8 // b 4654 <sk_load_4444_vfp4+0x34>
+ .long 0xeaffffc8 // b 463c <sk_load_4444_vfp4+0x34>
.long 0x3b888889 // .word 0x3b888889
.long 0x3b888889 // .word 0x3b888889
.long 0x3b888889 // .word 0x3b888889
@@ -12383,7 +12400,7 @@ _sk_load_4444_dst_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a000023 // bne 483c <sk_load_4444_dst_vfp4+0xcc>
+ .long 0x1a000023 // bne 4824 <sk_load_4444_dst_vfp4+0xcc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe28f40e4 // add r4, pc, #228
@@ -12422,12 +12439,12 @@ _sk_load_4444_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 4890 <sk_load_4444_dst_vfp4+0x120>
+ .long 0x0a000011 // beq 4878 <sk_load_4444_dst_vfp4+0x120>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 486c <sk_load_4444_dst_vfp4+0xfc>
+ .long 0x0a000005 // beq 4854 <sk_load_4444_dst_vfp4+0xfc>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffd4 // bne 47b0 <sk_load_4444_dst_vfp4+0x40>
+ .long 0x1affffd4 // bne 4798 <sk_load_4444_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -12440,11 +12457,11 @@ _sk_load_4444_dst_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffc7 // b 47b0 <sk_load_4444_dst_vfp4+0x40>
+ .long 0xeaffffc7 // b 4798 <sk_load_4444_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffc3 // b 47b0 <sk_load_4444_dst_vfp4+0x40>
+ .long 0xeaffffc3 // b 4798 <sk_load_4444_dst_vfp4+0x40>
.long 0x37888889 // .word 0x37888889
.long 0x37888889 // .word 0x37888889
.long 0x37888889 // .word 0x37888889
@@ -12567,7 +12584,7 @@ _sk_store_4444_vfp4:
.long 0xf26001f6 // vorr q8, q8, q11
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000004 // bne 4a78 <sk_store_4444_vfp4+0x90>
+ .long 0x1a000004 // bne 4a60 <sk_store_4444_vfp4+0x90>
.long 0xf442074f // vst1.16 {d16}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -12575,11 +12592,11 @@ _sk_store_4444_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4ab8 <sk_store_4444_vfp4+0xd0>
+ .long 0x0a00000c // beq 4aa0 <sk_store_4444_vfp4+0xd0>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4a9c <sk_store_4444_vfp4+0xb4>
+ .long 0x0a000003 // beq 4a84 <sk_store_4444_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 4a68 <sk_store_4444_vfp4+0x80>
+ .long 0x1afffff4 // bne 4a50 <sk_store_4444_vfp4+0x80>
.long 0xe2823004 // add r3, r2, #4
.long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16]
.long 0xee903bb0 // vmov.u16 r3, d16[0]
@@ -12588,9 +12605,9 @@ _sk_store_4444_vfp4:
.long 0xee204b90 // vmov.32 d16[1], r4
.long 0xf3f60121 // vuzp.16 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
- .long 0xeaffffeb // b 4a68 <sk_store_4444_vfp4+0x80>
+ .long 0xeaffffeb // b 4a50 <sk_store_4444_vfp4+0x80>
.long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffe9 // b 4a68 <sk_store_4444_vfp4+0x80>
+ .long 0xeaffffe9 // b 4a50 <sk_store_4444_vfp4+0x80>
HIDDEN _sk_load_8888_vfp4
.globl _sk_load_8888_vfp4
@@ -12606,7 +12623,7 @@ _sk_load_8888_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082210e // add r2, r2, lr, lsl #2
- .long 0x1a000015 // bne 4b44 <sk_load_8888_vfp4+0x84>
+ .long 0x1a000015 // bne 4b2c <sk_load_8888_vfp4+0x84>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f209c // add r2, pc, #156
@@ -12631,12 +12648,12 @@ _sk_load_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4b84 <sk_load_8888_vfp4+0xc4>
+ .long 0x0a00000c // beq 4b6c <sk_load_8888_vfp4+0xc4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4b74 <sk_load_8888_vfp4+0xb4>
+ .long 0x0a000005 // beq 4b5c <sk_load_8888_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe2 // bne 4af0 <sk_load_8888_vfp4+0x30>
+ .long 0x1affffe2 // bne 4ad8 <sk_load_8888_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xe2823008 // add r3, r2, #8
@@ -12644,11 +12661,11 @@ _sk_load_8888_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffda // b 4af0 <sk_load_8888_vfp4+0x30>
+ .long 0xeaffffda // b 4ad8 <sk_load_8888_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd6 // b 4af0 <sk_load_8888_vfp4+0x30>
+ .long 0xeaffffd6 // b 4ad8 <sk_load_8888_vfp4+0x30>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -12672,7 +12689,7 @@ _sk_load_8888_dst_vfp4:
.long 0xe0824103 // add r4, r2, r3, lsl #2
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001a // bne 4c4c <sk_load_8888_dst_vfp4+0xa4>
+ .long 0x1a00001a // bne 4c34 <sk_load_8888_dst_vfp4+0xa4>
.long 0xf4640a8f // vld1.32 {d16-d17}, [r4]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f40b0 // add r4, pc, #176
@@ -12702,12 +12719,12 @@ _sk_load_8888_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a00000c // beq 4c8c <sk_load_8888_dst_vfp4+0xe4>
+ .long 0x0a00000c // beq 4c74 <sk_load_8888_dst_vfp4+0xe4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 4c7c <sk_load_8888_dst_vfp4+0xd4>
+ .long 0x0a000005 // beq 4c64 <sk_load_8888_dst_vfp4+0xd4>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdd // bne 4be4 <sk_load_8888_dst_vfp4+0x3c>
+ .long 0x1affffdd // bne 4bcc <sk_load_8888_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xe2845008 // add r5, r4, #8
@@ -12715,11 +12732,11 @@ _sk_load_8888_dst_vfp4:
.long 0xedd42b00 // vldr d18, [r4]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffd5 // b 4be4 <sk_load_8888_dst_vfp4+0x3c>
+ .long 0xeaffffd5 // b 4bcc <sk_load_8888_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32]
- .long 0xeaffffd1 // b 4be4 <sk_load_8888_dst_vfp4+0x3c>
+ .long 0xeaffffd1 // b 4bcc <sk_load_8888_dst_vfp4+0x3c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -12809,7 +12826,7 @@ _sk_store_8888_vfp4:
.long 0xf2f84576 // vshl.s32 q10, q11, #24
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf26001f4 // vorr q8, q8, q10
- .long 0x1a000004 // bne 4df0 <sk_store_8888_vfp4+0x90>
+ .long 0x1a000004 // bne 4dd8 <sk_store_8888_vfp4+0x90>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -12817,17 +12834,17 @@ _sk_store_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000007 // beq 4e1c <sk_store_8888_vfp4+0xbc>
+ .long 0x0a000007 // beq 4e04 <sk_store_8888_vfp4+0xbc>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4e14 <sk_store_8888_vfp4+0xb4>
+ .long 0x0a000003 // beq 4dfc <sk_store_8888_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 4de0 <sk_store_8888_vfp4+0x80>
+ .long 0x1afffff4 // bne 4dc8 <sk_store_8888_vfp4+0x80>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeafffff0 // b 4de0 <sk_store_8888_vfp4+0x80>
+ .long 0xeafffff0 // b 4dc8 <sk_store_8888_vfp4+0x80>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffee // b 4de0 <sk_store_8888_vfp4+0x80>
+ .long 0xeaffffee // b 4dc8 <sk_store_8888_vfp4+0x80>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -12848,7 +12865,7 @@ _sk_load_bgra_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082210e // add r2, r2, lr, lsl #2
- .long 0x1a000015 // bne 4ebc <sk_load_bgra_vfp4+0x84>
+ .long 0x1a000015 // bne 4ea4 <sk_load_bgra_vfp4+0x84>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f209c // add r2, pc, #156
@@ -12873,12 +12890,12 @@ _sk_load_bgra_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4efc <sk_load_bgra_vfp4+0xc4>
+ .long 0x0a00000c // beq 4ee4 <sk_load_bgra_vfp4+0xc4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4eec <sk_load_bgra_vfp4+0xb4>
+ .long 0x0a000005 // beq 4ed4 <sk_load_bgra_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe2 // bne 4e68 <sk_load_bgra_vfp4+0x30>
+ .long 0x1affffe2 // bne 4e50 <sk_load_bgra_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xe2823008 // add r3, r2, #8
@@ -12886,11 +12903,11 @@ _sk_load_bgra_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffda // b 4e68 <sk_load_bgra_vfp4+0x30>
+ .long 0xeaffffda // b 4e50 <sk_load_bgra_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd6 // b 4e68 <sk_load_bgra_vfp4+0x30>
+ .long 0xeaffffd6 // b 4e50 <sk_load_bgra_vfp4+0x30>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -12914,7 +12931,7 @@ _sk_load_bgra_dst_vfp4:
.long 0xe0824103 // add r4, r2, r3, lsl #2
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001a // bne 4fc4 <sk_load_bgra_dst_vfp4+0xa4>
+ .long 0x1a00001a // bne 4fac <sk_load_bgra_dst_vfp4+0xa4>
.long 0xf4640a8f // vld1.32 {d16-d17}, [r4]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f40b0 // add r4, pc, #176
@@ -12944,12 +12961,12 @@ _sk_load_bgra_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a00000c // beq 5004 <sk_load_bgra_dst_vfp4+0xe4>
+ .long 0x0a00000c // beq 4fec <sk_load_bgra_dst_vfp4+0xe4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 4ff4 <sk_load_bgra_dst_vfp4+0xd4>
+ .long 0x0a000005 // beq 4fdc <sk_load_bgra_dst_vfp4+0xd4>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdd // bne 4f5c <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0x1affffdd // bne 4f44 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xe2845008 // add r5, r4, #8
@@ -12957,11 +12974,11 @@ _sk_load_bgra_dst_vfp4:
.long 0xedd42b00 // vldr d18, [r4]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffd5 // b 4f5c <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0xeaffffd5 // b 4f44 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32]
- .long 0xeaffffd1 // b 4f5c <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0xeaffffd1 // b 4f44 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -13051,7 +13068,7 @@ _sk_store_bgra_vfp4:
.long 0xf2f84576 // vshl.s32 q10, q11, #24
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf26001f4 // vorr q8, q8, q10
- .long 0x1a000004 // bne 5168 <sk_store_bgra_vfp4+0x90>
+ .long 0x1a000004 // bne 5150 <sk_store_bgra_vfp4+0x90>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -13059,17 +13076,17 @@ _sk_store_bgra_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000007 // beq 5194 <sk_store_bgra_vfp4+0xbc>
+ .long 0x0a000007 // beq 517c <sk_store_bgra_vfp4+0xbc>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 518c <sk_store_bgra_vfp4+0xb4>
+ .long 0x0a000003 // beq 5174 <sk_store_bgra_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 5158 <sk_store_bgra_vfp4+0x80>
+ .long 0x1afffff4 // bne 5140 <sk_store_bgra_vfp4+0x80>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeafffff0 // b 5158 <sk_store_bgra_vfp4+0x80>
+ .long 0xeafffff0 // b 5140 <sk_store_bgra_vfp4+0x80>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffee // b 5158 <sk_store_bgra_vfp4+0x80>
+ .long 0xeaffffee // b 5140 <sk_store_bgra_vfp4+0x80>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -13090,7 +13107,7 @@ _sk_load_f16_vfp4:
.long 0xe0020293 // mul r2, r3, r2
.long 0xe0842182 // add r2, r4, r2, lsl #3
.long 0xe082318e // add r3, r2, lr, lsl #3
- .long 0x1a000008 // bne 5200 <sk_load_f16_vfp4+0x50>
+ .long 0x1a000008 // bne 51e8 <sk_load_f16_vfp4+0x50>
.long 0xf463004f // vld4.16 {d16-d19}, [r3]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xf3b60720 // vcvt.f32.f16 q0, d16
@@ -13102,14 +13119,14 @@ _sk_load_f16_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0afffff4 // beq 51e0 <sk_load_f16_vfp4+0x30>
+ .long 0x0afffff4 // beq 51c8 <sk_load_f16_vfp4+0x30>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3afffff0 // bcc 51e0 <sk_load_f16_vfp4+0x30>
+ .long 0x3afffff0 // bcc 51c8 <sk_load_f16_vfp4+0x30>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffed // b 51e0 <sk_load_f16_vfp4+0x30>
+ .long 0xeaffffed // b 51c8 <sk_load_f16_vfp4+0x30>
HIDDEN _sk_load_f16_dst_vfp4
.globl _sk_load_f16_dst_vfp4
@@ -13128,7 +13145,7 @@ _sk_load_f16_dst_vfp4:
.long 0xe0825183 // add r5, r2, r3, lsl #3
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00000d // bne 5298 <sk_load_f16_dst_vfp4+0x70>
+ .long 0x1a00000d // bne 5280 <sk_load_f16_dst_vfp4+0x70>
.long 0xf465004f // vld4.16 {d16-d19}, [r5]
.long 0xf3f64720 // vcvt.f32.f16 q10, d16
.long 0xf3f66721 // vcvt.f32.f16 q11, d17
@@ -13145,14 +13162,14 @@ _sk_load_f16_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xf4e5070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r5]
.long 0xe3560001 // cmp r6, #1
- .long 0x0affffef // beq 5264 <sk_load_f16_dst_vfp4+0x3c>
+ .long 0x0affffef // beq 524c <sk_load_f16_dst_vfp4+0x3c>
.long 0xe2854008 // add r4, r5, #8
.long 0xe3560003 // cmp r6, #3
.long 0xf4e4074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r4]
- .long 0x3affffeb // bcc 5264 <sk_load_f16_dst_vfp4+0x3c>
+ .long 0x3affffeb // bcc 524c <sk_load_f16_dst_vfp4+0x3c>
.long 0xe2854010 // add r4, r5, #16
.long 0xf4e4078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r4]
- .long 0xeaffffe8 // b 5264 <sk_load_f16_dst_vfp4+0x3c>
+ .long 0xeaffffe8 // b 524c <sk_load_f16_dst_vfp4+0x3c>
HIDDEN _sk_gather_f16_vfp4
.globl _sk_gather_f16_vfp4
@@ -13213,7 +13230,7 @@ _sk_store_f16_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842182 // add r2, r4, r2, lsl #3
.long 0xe082218e // add r2, r2, lr, lsl #3
- .long 0x1a000004 // bne 53a0 <sk_store_f16_vfp4+0x50>
+ .long 0x1a000004 // bne 5388 <sk_store_f16_vfp4+0x50>
.long 0xf442004f // vst4.16 {d16-d19}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -13221,14 +13238,14 @@ _sk_store_f16_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4c2070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r2]
- .long 0x0afffff8 // beq 5390 <sk_store_f16_vfp4+0x40>
+ .long 0x0afffff8 // beq 5378 <sk_store_f16_vfp4+0x40>
.long 0xe2823008 // add r3, r2, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4c3074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r3]
- .long 0x3afffff4 // bcc 5390 <sk_store_f16_vfp4+0x40>
+ .long 0x3afffff4 // bcc 5378 <sk_store_f16_vfp4+0x40>
.long 0xe2822010 // add r2, r2, #16
.long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeafffff1 // b 5390 <sk_store_f16_vfp4+0x40>
+ .long 0xeafffff1 // b 5378 <sk_store_f16_vfp4+0x40>
HIDDEN _sk_load_u16_be_vfp4
.globl _sk_load_u16_be_vfp4
@@ -13244,7 +13261,7 @@ _sk_load_u16_be_vfp4:
.long 0xe0020293 // mul r2, r3, r2
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082318e // add r3, r2, lr, lsl #3
- .long 0x1a00001e // bne 5470 <sk_load_u16_be_vfp4+0xa8>
+ .long 0x1a00001e // bne 5458 <sk_load_u16_be_vfp4+0xa8>
.long 0xf463004f // vld4.16 {d16-d19}, [r3]
.long 0xf3d84030 // vshr.u16 d20, d16, #8
.long 0xe28f2094 // add r2, pc, #148
@@ -13278,14 +13295,14 @@ _sk_load_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0affffde // beq 53f8 <sk_load_u16_be_vfp4+0x30>
+ .long 0x0affffde // beq 53e0 <sk_load_u16_be_vfp4+0x30>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3affffda // bcc 53f8 <sk_load_u16_be_vfp4+0x30>
+ .long 0x3affffda // bcc 53e0 <sk_load_u16_be_vfp4+0x30>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffd7 // b 53f8 <sk_load_u16_be_vfp4+0x30>
+ .long 0xeaffffd7 // b 53e0 <sk_load_u16_be_vfp4+0x30>
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -13306,7 +13323,7 @@ _sk_load_rgb_u16_be_vfp4:
.long 0xe08e308e // add r3, lr, lr, lsl #1
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe0823083 // add r3, r2, r3, lsl #1
- .long 0x1a00001a // bne 5544 <sk_load_rgb_u16_be_vfp4+0x9c>
+ .long 0x1a00001a // bne 552c <sk_load_rgb_u16_be_vfp4+0x9c>
.long 0xf463044f // vld3.16 {d16-d18}, [r3]
.long 0xf3d84030 // vshr.u16 d20, d16, #8
.long 0xe28f2088 // add r2, pc, #136
@@ -13336,14 +13353,14 @@ _sk_load_rgb_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3060f // vld3.16 {d16[0],d17[0],d18[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0affffe2 // beq 54dc <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0x0affffe2 // beq 54c4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe2832006 // add r2, r3, #6
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2]
- .long 0x3affffde // bcc 54dc <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0x3affffde // bcc 54c4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe283200c // add r2, r3, #12
.long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2]
- .long 0xeaffffdb // b 54dc <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0xeaffffdb // b 54c4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe320f000 // nop {0}
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -13398,7 +13415,7 @@ _sk_store_u16_be_vfp4:
.long 0xf2d84534 // vshl.s16 d20, d20, #8
.long 0xf26811b7 // vorr d17, d24, d23
.long 0xf26401b9 // vorr d16, d20, d25
- .long 0x1a000004 // bne 5648 <sk_store_u16_be_vfp4+0xb8>
+ .long 0x1a000004 // bne 5630 <sk_store_u16_be_vfp4+0xb8>
.long 0xf443004f // vst4.16 {d16-d19}, [r3]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -13406,14 +13423,14 @@ _sk_store_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4c3070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
- .long 0x0afffff8 // beq 5638 <sk_store_u16_be_vfp4+0xa8>
+ .long 0x0afffff8 // beq 5620 <sk_store_u16_be_vfp4+0xa8>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4c2074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3afffff4 // bcc 5638 <sk_store_u16_be_vfp4+0xa8>
+ .long 0x3afffff4 // bcc 5620 <sk_store_u16_be_vfp4+0xa8>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeafffff1 // b 5638 <sk_store_u16_be_vfp4+0xa8>
+ .long 0xeafffff1 // b 5620 <sk_store_u16_be_vfp4+0xa8>
.long 0x477fff00 // .word 0x477fff00
.long 0x477fff00 // .word 0x477fff00
.long 0x477fff00 // .word 0x477fff00
@@ -13433,7 +13450,7 @@ _sk_load_f32_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082220e // add r2, r2, lr, lsl #4
- .long 0x1a000009 // bne 56d4 <sk_load_f32_vfp4+0x54>
+ .long 0x1a000009 // bne 56bc <sk_load_f32_vfp4+0x54>
.long 0xf462018d // vld4.32 {d16,d18,d20,d22}, [r2]!
.long 0xf462118f // vld4.32 {d17,d19,d21,d23}, [r2]
.long 0xf22001f0 // vorr q0, q8, q8
@@ -13446,14 +13463,14 @@ _sk_load_f32_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4a20b4f // vld4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0afffff8 // beq 56c4 <sk_load_f32_vfp4+0x44>
+ .long 0x0afffff8 // beq 56ac <sk_load_f32_vfp4+0x44>
.long 0xe2823010 // add r3, r2, #16
.long 0xe35c0003 // cmp ip, #3
.long 0xf4a30bcf // vld4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3]
- .long 0x3afffff4 // bcc 56c4 <sk_load_f32_vfp4+0x44>
+ .long 0x3afffff4 // bcc 56ac <sk_load_f32_vfp4+0x44>
.long 0xe2822020 // add r2, r2, #32
.long 0xf4a21b4f // vld4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2]
- .long 0xeafffff1 // b 56c4 <sk_load_f32_vfp4+0x44>
+ .long 0xeafffff1 // b 56ac <sk_load_f32_vfp4+0x44>
HIDDEN _sk_load_f32_dst_vfp4
.globl _sk_load_f32_dst_vfp4
@@ -13472,7 +13489,7 @@ _sk_load_f32_dst_vfp4:
.long 0xe0824203 // add r4, r2, r3, lsl #4
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00000e // bne 5770 <sk_load_f32_dst_vfp4+0x74>
+ .long 0x1a00000e // bne 5758 <sk_load_f32_dst_vfp4+0x74>
.long 0xf464818d // vld4.32 {d24,d26,d28,d30}, [r4]!
.long 0xf464918f // vld4.32 {d25,d27,d29,d31}, [r4]
.long 0xf26801f8 // vorr q8, q12, q12
@@ -13490,14 +13507,14 @@ _sk_load_f32_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xf4e40b4f // vld4.32 {d16[0],d18[0],d20[0],d22[0]}, [r4]
.long 0xe3560001 // cmp r6, #1
- .long 0x0afffff3 // beq 574c <sk_load_f32_dst_vfp4+0x50>
+ .long 0x0afffff3 // beq 5734 <sk_load_f32_dst_vfp4+0x50>
.long 0xe2845010 // add r5, r4, #16
.long 0xe3560003 // cmp r6, #3
.long 0xf4e50bcf // vld4.32 {d16[1],d18[1],d20[1],d22[1]}, [r5]
- .long 0x3affffef // bcc 574c <sk_load_f32_dst_vfp4+0x50>
+ .long 0x3affffef // bcc 5734 <sk_load_f32_dst_vfp4+0x50>
.long 0xe2844020 // add r4, r4, #32
.long 0xf4e41b4f // vld4.32 {d17[0],d19[0],d21[0],d23[0]}, [r4]
- .long 0xeaffffec // b 574c <sk_load_f32_dst_vfp4+0x50>
+ .long 0xeaffffec // b 5734 <sk_load_f32_dst_vfp4+0x50>
HIDDEN _sk_store_f32_vfp4
.globl _sk_store_f32_vfp4
@@ -13513,7 +13530,7 @@ _sk_store_f32_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082220e // add r2, r2, lr, lsl #4
- .long 0x1a000005 // bne 57dc <sk_store_f32_vfp4+0x44>
+ .long 0x1a000005 // bne 57c4 <sk_store_f32_vfp4+0x44>
.long 0xf402018d // vst4.32 {d0,d2,d4,d6}, [r2]!
.long 0xf402118f // vst4.32 {d1,d3,d5,d7}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
@@ -13522,14 +13539,14 @@ _sk_store_f32_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4820b4f // vst4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2]
- .long 0x0afffff8 // beq 57cc <sk_store_f32_vfp4+0x34>
+ .long 0x0afffff8 // beq 57b4 <sk_store_f32_vfp4+0x34>
.long 0xe2823010 // add r3, r2, #16
.long 0xe35c0003 // cmp ip, #3
.long 0xf4830bcf // vst4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3]
- .long 0x3afffff4 // bcc 57cc <sk_store_f32_vfp4+0x34>
+ .long 0x3afffff4 // bcc 57b4 <sk_store_f32_vfp4+0x34>
.long 0xe2822020 // add r2, r2, #32
.long 0xf4821b4f // vst4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2]
- .long 0xeafffff1 // b 57cc <sk_store_f32_vfp4+0x34>
+ .long 0xeafffff1 // b 57b4 <sk_store_f32_vfp4+0x34>
HIDDEN _sk_clamp_x_vfp4
.globl _sk_clamp_x_vfp4
@@ -14210,7 +14227,7 @@ _sk_gradient_vfp4:
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe5931000 // ldr r1, [r3]
.long 0xe3510002 // cmp r1, #2
- .long 0x3a00000a // bcc 6144 <sk_gradient_vfp4+0x5c>
+ .long 0x3a00000a // bcc 612c <sk_gradient_vfp4+0x5c>
.long 0xe5932024 // ldr r2, [r3, #36]
.long 0xf2c04051 // vmov.i32 q10, #1
.long 0xf2c00050 // vmov.i32 q8, #0
@@ -14221,7 +14238,7 @@ _sk_gradient_vfp4:
.long 0xf3468ee8 // vcge.f32 q12, q11, q12
.long 0xf35481f2 // vbsl q12, q10, q9
.long 0xf26808e0 // vadd.i32 q8, q12, q8
- .long 0x1afffff9 // bne 612c <sk_gradient_vfp4+0x44>
+ .long 0x1afffff9 // bne 6114 <sk_gradient_vfp4+0x44>
.long 0xee315b90 // vmov.32 r5, d17[1]
.long 0xe5937010 // ldr r7, [r3, #16]
.long 0xee112b90 // vmov.32 r2, d17[0]
@@ -15362,7 +15379,7 @@ _sk_clut_3D_vfp4:
.long 0xee1e2b10 // vmov.32 r2, d14[0]
.long 0xf2660d40 // vsub.f32 q8, q3, q0
.long 0xf2000cf4 // vfma.f32 q0, q8, q10
- .long 0xea000003 // b 7148 <sk_clut_3D_vfp4+0x500>
+ .long 0xea000003 // b 7130 <sk_clut_3D_vfp4+0x500>
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -15867,7 +15884,7 @@ _sk_clut_4D_vfp4:
.long 0xf20c0cdc // vfma.f32 q0, q14, q6
.long 0xf260cd4e // vsub.f32 q14, q0, q7
.long 0xf20cecfe // vfma.f32 q7, q14, q15
- .long 0xea000003 // b 7918 <sk_clut_4D_vfp4+0x548>
+ .long 0xea000003 // b 7900 <sk_clut_4D_vfp4+0x548>
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -16599,7 +16616,7 @@ _sk_seed_shader_hsw:
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,42,108,0,0 // vbroadcastss 0x6c2a(%rip),%ymm1 # 6cf4 <_sk_clut_4D_hsw+0x89e>
+ .byte 196,226,125,24,13,34,108,0,0 // vbroadcastss 0x6c22(%rip),%ymm1 # 6cec <_sk_clut_4D_hsw+0x89e>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,88,7 // vaddps (%rdi),%ymm0,%ymm0
.byte 197,249,110,209 // vmovd %ecx,%xmm2
@@ -16607,7 +16624,7 @@ _sk_seed_shader_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,10,108,0,0 // vbroadcastss 0x6c0a(%rip),%ymm2 # 6cf8 <_sk_clut_4D_hsw+0x8a2>
+ .byte 196,226,125,24,21,2,108,0,0 // vbroadcastss 0x6c02(%rip),%ymm2 # 6cf0 <_sk_clut_4D_hsw+0x8a2>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16626,13 +16643,13 @@ _sk_dither_hsw:
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,209,107,0,0 // vpbroadcastd 0x6bd1(%rip),%ymm10 # 6cfc <_sk_clut_4D_hsw+0x8a6>
+ .byte 196,98,125,88,21,201,107,0,0 // vpbroadcastd 0x6bc9(%rip),%ymm10 # 6cf4 <_sk_clut_4D_hsw+0x8a6>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,182,107,0,0 // vpbroadcastd 0x6bb6(%rip),%ymm12 # 6d00 <_sk_clut_4D_hsw+0x8aa>
- .byte 196,98,125,88,45,177,107,0,0 // vpbroadcastd 0x6bb1(%rip),%ymm13 # 6d04 <_sk_clut_4D_hsw+0x8ae>
+ .byte 196,98,125,88,37,174,107,0,0 // vpbroadcastd 0x6bae(%rip),%ymm12 # 6cf8 <_sk_clut_4D_hsw+0x8aa>
+ .byte 196,98,125,88,45,169,107,0,0 // vpbroadcastd 0x6ba9(%rip),%ymm13 # 6cfc <_sk_clut_4D_hsw+0x8ae>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,61,219,237 // vpand %ymm13,%ymm8,%ymm13
@@ -16647,8 +16664,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,194 // vpor %ymm10,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,99,107,0,0 // vbroadcastss 0x6b63(%rip),%ymm9 # 6d08 <_sk_clut_4D_hsw+0x8b2>
- .byte 196,98,125,24,21,94,107,0,0 // vbroadcastss 0x6b5e(%rip),%ymm10 # 6d0c <_sk_clut_4D_hsw+0x8b6>
+ .byte 196,98,125,24,13,91,107,0,0 // vbroadcastss 0x6b5b(%rip),%ymm9 # 6d00 <_sk_clut_4D_hsw+0x8b2>
+ .byte 196,98,125,24,21,86,107,0,0 // vbroadcastss 0x6b56(%rip),%ymm10 # 6d04 <_sk_clut_4D_hsw+0x8b6>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
@@ -16682,7 +16699,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,254,106,0,0 // vbroadcastss 0x6afe(%rip),%ymm3 # 6d10 <_sk_clut_4D_hsw+0x8ba>
+ .byte 196,226,125,24,29,246,106,0,0 // vbroadcastss 0x6af6(%rip),%ymm3 # 6d08 <_sk_clut_4D_hsw+0x8ba>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16693,7 +16710,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,233,106,0,0 // vbroadcastss 0x6ae9(%rip),%ymm0 # 6d14 <_sk_clut_4D_hsw+0x8be>
+ .byte 196,226,125,24,5,225,106,0,0 // vbroadcastss 0x6ae1(%rip),%ymm0 # 6d0c <_sk_clut_4D_hsw+0x8be>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16739,7 +16756,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,140,106,0,0 // vbroadcastss 0x6a8c(%rip),%ymm8 # 6d18 <_sk_clut_4D_hsw+0x8c2>
+ .byte 196,98,125,24,5,132,106,0,0 // vbroadcastss 0x6a84(%rip),%ymm8 # 6d10 <_sk_clut_4D_hsw+0x8c2>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -16755,7 +16772,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,95,106,0,0 // vbroadcastss 0x6a5f(%rip),%ymm8 # 6d1c <_sk_clut_4D_hsw+0x8c6>
+ .byte 196,98,125,24,5,87,106,0,0 // vbroadcastss 0x6a57(%rip),%ymm8 # 6d14 <_sk_clut_4D_hsw+0x8c6>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -16794,7 +16811,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,6,106,0,0 // vbroadcastss 0x6a06(%rip),%ymm8 # 6d20 <_sk_clut_4D_hsw+0x8ca>
+ .byte 196,98,125,24,5,254,105,0,0 // vbroadcastss 0x69fe(%rip),%ymm8 # 6d18 <_sk_clut_4D_hsw+0x8ca>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16807,7 +16824,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,233,105,0,0 // vbroadcastss 0x69e9(%rip),%ymm0 # 6d24 <_sk_clut_4D_hsw+0x8ce>
+ .byte 196,226,125,24,5,225,105,0,0 // vbroadcastss 0x69e1(%rip),%ymm0 # 6d1c <_sk_clut_4D_hsw+0x8ce>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -16820,7 +16837,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,204,105,0,0 // vbroadcastss 0x69cc(%rip),%ymm8 # 6d28 <_sk_clut_4D_hsw+0x8d2>
+ .byte 196,98,125,24,5,196,105,0,0 // vbroadcastss 0x69c4(%rip),%ymm8 # 6d20 <_sk_clut_4D_hsw+0x8d2>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -16833,7 +16850,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,171,105,0,0 // vbroadcastss 0x69ab(%rip),%ymm8 # 6d2c <_sk_clut_4D_hsw+0x8d6>
+ .byte 196,98,125,24,5,163,105,0,0 // vbroadcastss 0x69a3(%rip),%ymm8 # 6d24 <_sk_clut_4D_hsw+0x8d6>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -16857,7 +16874,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,118,105,0,0 // vbroadcastss 0x6976(%rip),%ymm8 # 6d30 <_sk_clut_4D_hsw+0x8da>
+ .byte 196,98,125,24,5,110,105,0,0 // vbroadcastss 0x696e(%rip),%ymm8 # 6d28 <_sk_clut_4D_hsw+0x8da>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16905,7 +16922,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,241,104,0,0 // vbroadcastss 0x68f1(%rip),%ymm8 # 6d34 <_sk_clut_4D_hsw+0x8de>
+ .byte 196,98,125,24,5,233,104,0,0 // vbroadcastss 0x68e9(%rip),%ymm8 # 6d2c <_sk_clut_4D_hsw+0x8de>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16939,7 +16956,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,121,104,0,0 // vbroadcastss 0x6879(%rip),%ymm8 # 6d38 <_sk_clut_4D_hsw+0x8e2>
+ .byte 196,98,125,24,5,113,104,0,0 // vbroadcastss 0x6871(%rip),%ymm8 # 6d30 <_sk_clut_4D_hsw+0x8e2>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16964,7 +16981,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,40,104,0,0 // vbroadcastss 0x6828(%rip),%ymm8 # 6d3c <_sk_clut_4D_hsw+0x8e6>
+ .byte 196,98,125,24,5,32,104,0,0 // vbroadcastss 0x6820(%rip),%ymm8 # 6d34 <_sk_clut_4D_hsw+0x8e6>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16992,7 +17009,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,203,103,0,0 // vbroadcastss 0x67cb(%rip),%ymm8 # 6d40 <_sk_clut_4D_hsw+0x8ea>
+ .byte 196,98,125,24,5,195,103,0,0 // vbroadcastss 0x67c3(%rip),%ymm8 # 6d38 <_sk_clut_4D_hsw+0x8ea>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17014,7 +17031,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,137,103,0,0 // vbroadcastss 0x6789(%rip),%ymm8 # 6d44 <_sk_clut_4D_hsw+0x8ee>
+ .byte 196,98,125,24,5,129,103,0,0 // vbroadcastss 0x6781(%rip),%ymm8 # 6d3c <_sk_clut_4D_hsw+0x8ee>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17024,52 +17041,52 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,119,103,0,0 // vbroadcastss 0x6777(%rip),%ymm8 # 6d48 <_sk_clut_4D_hsw+0x8f2>
+ .byte 196,98,125,24,5,111,103,0,0 // vbroadcastss 0x676f(%rip),%ymm8 # 6d40 <_sk_clut_4D_hsw+0x8f2>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,65,124,194,226,0 // vcmpeqps %ymm10,%ymm0,%ymm12
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,228 // vmulps %ymm4,%ymm8,%ymm12
.byte 197,68,92,236 // vsubps %ymm4,%ymm7,%ymm13
.byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,20,94,232 // vdivps %ymm0,%ymm13,%ymm13
- .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13
- .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13
- .byte 196,66,101,168,235 // vfmadd213ps %ymm11,%ymm3,%ymm13
- .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13
- .byte 197,28,88,224 // vaddps %ymm0,%ymm12,%ymm12
- .byte 196,193,124,194,194,0 // vcmpeqps %ymm10,%ymm0,%ymm0
- .byte 196,195,21,74,196,0 // vblendvps %ymm0,%ymm12,%ymm13,%ymm0
+ .byte 197,252,83,192 // vrcpps %ymm0,%ymm0
+ .byte 197,148,89,192 // vmulps %ymm0,%ymm13,%ymm0
+ .byte 197,60,89,236 // vmulps %ymm4,%ymm8,%ymm13
+ .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
+ .byte 197,196,92,192 // vsubps %ymm0,%ymm7,%ymm0
+ .byte 196,194,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm0
+ .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0
+ .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
.byte 197,92,194,231,0 // vcmpeqps %ymm7,%ymm4,%ymm12
.byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 197,52,89,217 // vmulps %ymm1,%ymm9,%ymm11
- .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12
+ .byte 196,65,116,194,226,0 // vcmpeqps %ymm10,%ymm1,%ymm12
.byte 197,68,92,237 // vsubps %ymm5,%ymm7,%ymm13
.byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,20,94,233 // vdivps %ymm1,%ymm13,%ymm13
- .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13
- .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13
- .byte 196,66,101,168,235 // vfmadd213ps %ymm11,%ymm3,%ymm13
- .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13
- .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,193,116,194,202,0 // vcmpeqps %ymm10,%ymm1,%ymm1
- .byte 196,195,21,74,204,16 // vblendvps %ymm1,%ymm12,%ymm13,%ymm1
+ .byte 197,252,83,201 // vrcpps %ymm1,%ymm1
+ .byte 197,148,89,201 // vmulps %ymm1,%ymm13,%ymm1
+ .byte 197,60,89,237 // vmulps %ymm5,%ymm8,%ymm13
+ .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
+ .byte 197,196,92,201 // vsubps %ymm1,%ymm7,%ymm1
+ .byte 196,194,101,168,203 // vfmadd213ps %ymm11,%ymm3,%ymm1
+ .byte 197,148,88,201 // vaddps %ymm1,%ymm13,%ymm1
+ .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
.byte 197,84,194,231,0 // vcmpeqps %ymm7,%ymm5,%ymm12
.byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
.byte 196,65,108,194,210,0 // vcmpeqps %ymm10,%ymm2,%ymm10
+ .byte 197,68,92,222 // vsubps %ymm6,%ymm7,%ymm11
+ .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
+ .byte 197,252,83,210 // vrcpps %ymm2,%ymm2
+ .byte 197,164,89,210 // vmulps %ymm2,%ymm11,%ymm2
.byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12
- .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 197,28,94,226 // vdivps %ymm2,%ymm12,%ymm12
+ .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
+ .byte 197,196,92,210 // vsubps %ymm2,%ymm7,%ymm2
+ .byte 196,194,101,168,209 // vfmadd213ps %ymm9,%ymm3,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
- .byte 196,65,68,92,228 // vsubps %ymm12,%ymm7,%ymm12
- .byte 196,66,101,168,225 // vfmadd213ps %ymm9,%ymm3,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,227,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm2
+ .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
.byte 197,76,194,215,0 // vcmpeqps %ymm7,%ymm6,%ymm10
.byte 197,52,88,206 // vaddps %ymm6,%ymm9,%ymm9
.byte 196,195,109,74,209,160 // vblendvps %ymm10,%ymm9,%ymm2,%ymm2
@@ -17082,13 +17099,14 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,130,102,0,0 // vbroadcastss 0x6682(%rip),%ymm9 # 6d4c <_sk_clut_4D_hsw+0x8f6>
+ .byte 196,98,125,24,13,131,102,0,0 // vbroadcastss 0x6683(%rip),%ymm9 # 6d44 <_sk_clut_4D_hsw+0x8f6>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
.byte 197,100,89,228 // vmulps %ymm4,%ymm3,%ymm12
.byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13
- .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12
+ .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
+ .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13
.byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
.byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12
@@ -17097,12 +17115,12 @@ _sk_colordodge_hsw:
.byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0
.byte 196,195,29,74,197,0 // vblendvps %ymm0,%ymm13,%ymm12,%ymm0
.byte 196,65,92,194,224,0 // vcmpeqps %ymm8,%ymm4,%ymm12
- .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
.byte 197,100,89,229 // vmulps %ymm5,%ymm3,%ymm12
.byte 197,100,92,233 // vsubps %ymm1,%ymm3,%ymm13
- .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12
+ .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
+ .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13
.byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
.byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12
@@ -17111,12 +17129,12 @@ _sk_colordodge_hsw:
.byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1
.byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1
.byte 196,65,84,194,224,0 // vcmpeqps %ymm8,%ymm5,%ymm12
- .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
.byte 197,100,92,226 // vsubps %ymm2,%ymm3,%ymm12
- .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
+ .byte 196,65,124,83,228 // vrcpps %ymm12,%ymm12
+ .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 197,52,89,230 // vmulps %ymm6,%ymm9,%ymm12
.byte 196,65,68,93,219 // vminps %ymm11,%ymm7,%ymm11
.byte 196,66,101,168,218 // vfmadd213ps %ymm10,%ymm3,%ymm11
@@ -17125,7 +17143,6 @@ _sk_colordodge_hsw:
.byte 197,236,194,211,0 // vcmpeqps %ymm3,%ymm2,%ymm2
.byte 196,195,37,74,212,32 // vblendvps %ymm2,%ymm12,%ymm11,%ymm2
.byte 196,65,76,194,192,0 // vcmpeqps %ymm8,%ymm6,%ymm8
- .byte 197,44,88,214 // vaddps %ymm6,%ymm10,%ymm10
.byte 196,195,109,74,210,128 // vblendvps %ymm8,%ymm10,%ymm2,%ymm2
.byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17135,7 +17152,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,163,101,0,0 // vbroadcastss 0x65a3(%rip),%ymm8 # 6d50 <_sk_clut_4D_hsw+0x8fa>
+ .byte 196,98,125,24,5,161,101,0,0 // vbroadcastss 0x65a1(%rip),%ymm8 # 6d48 <_sk_clut_4D_hsw+0x8fa>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17186,7 +17203,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,219,100,0,0 // vbroadcastss 0x64db(%rip),%ymm8 # 6d54 <_sk_clut_4D_hsw+0x8fe>
+ .byte 196,98,125,24,5,217,100,0,0 // vbroadcastss 0x64d9(%rip),%ymm8 # 6d4c <_sk_clut_4D_hsw+0x8fe>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17247,10 +17264,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,230,99,0,0 // vbroadcastss 0x63e6(%rip),%ymm11 # 6d5c <_sk_clut_4D_hsw+0x906>
+ .byte 196,98,125,24,29,228,99,0,0 // vbroadcastss 0x63e4(%rip),%ymm11 # 6d54 <_sk_clut_4D_hsw+0x906>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,215,99,0,0 // vbroadcastss 0x63d7(%rip),%ymm12 # 6d60 <_sk_clut_4D_hsw+0x90a>
+ .byte 196,98,125,24,37,213,99,0,0 // vbroadcastss 0x63d5(%rip),%ymm12 # 6d58 <_sk_clut_4D_hsw+0x90a>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -17260,7 +17277,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,154,99,0,0 // vbroadcastss 0x639a(%rip),%ymm8 # 6d58 <_sk_clut_4D_hsw+0x902>
+ .byte 196,98,125,24,5,152,99,0,0 // vbroadcastss 0x6398(%rip),%ymm8 # 6d50 <_sk_clut_4D_hsw+0x902>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -17373,11 +17390,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,158,97,0,0 // vbroadcastss 0x619e(%rip),%ymm14 # 6d64 <_sk_clut_4D_hsw+0x90e>
- .byte 196,98,125,24,61,153,97,0,0 // vbroadcastss 0x6199(%rip),%ymm15 # 6d68 <_sk_clut_4D_hsw+0x912>
+ .byte 196,98,125,24,53,156,97,0,0 // vbroadcastss 0x619c(%rip),%ymm14 # 6d5c <_sk_clut_4D_hsw+0x90e>
+ .byte 196,98,125,24,61,151,97,0,0 // vbroadcastss 0x6197(%rip),%ymm15 # 6d60 <_sk_clut_4D_hsw+0x912>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,138,97,0,0 // vbroadcastss 0x618a(%rip),%ymm0 # 6d6c <_sk_clut_4D_hsw+0x916>
+ .byte 196,226,125,24,5,136,97,0,0 // vbroadcastss 0x6188(%rip),%ymm0 # 6d64 <_sk_clut_4D_hsw+0x916>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17432,7 +17449,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,119,96,0,0 // vbroadcastss 0x6077(%rip),%ymm1 # 6d70 <_sk_clut_4D_hsw+0x91a>
+ .byte 196,226,125,24,13,117,96,0,0 // vbroadcastss 0x6075(%rip),%ymm1 # 6d68 <_sk_clut_4D_hsw+0x91a>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17486,11 +17503,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,142,95,0,0 // vbroadcastss 0x5f8e(%rip),%ymm14 # 6d74 <_sk_clut_4D_hsw+0x91e>
- .byte 196,98,125,24,61,137,95,0,0 // vbroadcastss 0x5f89(%rip),%ymm15 # 6d78 <_sk_clut_4D_hsw+0x922>
+ .byte 196,98,125,24,53,140,95,0,0 // vbroadcastss 0x5f8c(%rip),%ymm14 # 6d6c <_sk_clut_4D_hsw+0x91e>
+ .byte 196,98,125,24,61,135,95,0,0 // vbroadcastss 0x5f87(%rip),%ymm15 # 6d70 <_sk_clut_4D_hsw+0x922>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,122,95,0,0 // vbroadcastss 0x5f7a(%rip),%ymm0 # 6d7c <_sk_clut_4D_hsw+0x926>
+ .byte 196,226,125,24,5,120,95,0,0 // vbroadcastss 0x5f78(%rip),%ymm0 # 6d74 <_sk_clut_4D_hsw+0x926>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17545,7 +17562,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,103,94,0,0 // vbroadcastss 0x5e67(%rip),%ymm1 # 6d80 <_sk_clut_4D_hsw+0x92a>
+ .byte 196,226,125,24,13,101,94,0,0 // vbroadcastss 0x5e65(%rip),%ymm1 # 6d78 <_sk_clut_4D_hsw+0x92a>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17573,11 +17590,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,0,94,0,0 // vbroadcastss 0x5e00(%rip),%ymm13 # 6d84 <_sk_clut_4D_hsw+0x92e>
- .byte 196,98,125,24,53,251,93,0,0 // vbroadcastss 0x5dfb(%rip),%ymm14 # 6d88 <_sk_clut_4D_hsw+0x932>
+ .byte 196,98,125,24,45,254,93,0,0 // vbroadcastss 0x5dfe(%rip),%ymm13 # 6d7c <_sk_clut_4D_hsw+0x92e>
+ .byte 196,98,125,24,53,249,93,0,0 // vbroadcastss 0x5df9(%rip),%ymm14 # 6d80 <_sk_clut_4D_hsw+0x932>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,236,93,0,0 // vbroadcastss 0x5dec(%rip),%ymm15 # 6d8c <_sk_clut_4D_hsw+0x936>
+ .byte 196,98,125,24,61,234,93,0,0 // vbroadcastss 0x5dea(%rip),%ymm15 # 6d84 <_sk_clut_4D_hsw+0x936>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17633,7 +17650,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,206,92,0,0 // vbroadcastss 0x5cce(%rip),%ymm0 # 6d90 <_sk_clut_4D_hsw+0x93a>
+ .byte 196,226,125,24,5,204,92,0,0 // vbroadcastss 0x5ccc(%rip),%ymm0 # 6d88 <_sk_clut_4D_hsw+0x93a>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17661,11 +17678,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,103,92,0,0 // vbroadcastss 0x5c67(%rip),%ymm13 # 6d94 <_sk_clut_4D_hsw+0x93e>
- .byte 196,98,125,24,53,98,92,0,0 // vbroadcastss 0x5c62(%rip),%ymm14 # 6d98 <_sk_clut_4D_hsw+0x942>
+ .byte 196,98,125,24,45,101,92,0,0 // vbroadcastss 0x5c65(%rip),%ymm13 # 6d8c <_sk_clut_4D_hsw+0x93e>
+ .byte 196,98,125,24,53,96,92,0,0 // vbroadcastss 0x5c60(%rip),%ymm14 # 6d90 <_sk_clut_4D_hsw+0x942>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,83,92,0,0 // vbroadcastss 0x5c53(%rip),%ymm15 # 6d9c <_sk_clut_4D_hsw+0x946>
+ .byte 196,98,125,24,61,81,92,0,0 // vbroadcastss 0x5c51(%rip),%ymm15 # 6d94 <_sk_clut_4D_hsw+0x946>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17721,7 +17738,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,53,91,0,0 // vbroadcastss 0x5b35(%rip),%ymm0 # 6da0 <_sk_clut_4D_hsw+0x94a>
+ .byte 196,226,125,24,5,51,91,0,0 // vbroadcastss 0x5b33(%rip),%ymm0 # 6d98 <_sk_clut_4D_hsw+0x94a>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17751,19 +17768,19 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,180,0,0,0 // jne 1382 <_sk_srcover_rgba_8888_hsw+0xd5>
+ .byte 15,133,180,0,0,0 // jne 137c <_sk_srcover_rgba_8888_hsw+0xd5>
.byte 196,193,126,111,60,153 // vmovdqu (%r9,%rbx,4),%ymm7
- .byte 197,197,219,37,36,95,0,0 // vpand 0x5f24(%rip),%ymm7,%ymm4 # 7200 <_sk_clut_4D_hsw+0xdaa>
+ .byte 197,197,219,37,42,95,0,0 // vpand 0x5f2a(%rip),%ymm7,%ymm4 # 7200 <_sk_clut_4D_hsw+0xdb2>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,55,95,0,0 // vpshufb 0x5f37(%rip),%ymm7,%ymm5 # 7220 <_sk_clut_4D_hsw+0xdca>
+ .byte 196,226,69,0,45,61,95,0,0 // vpshufb 0x5f3d(%rip),%ymm7,%ymm5 # 7220 <_sk_clut_4D_hsw+0xdd2>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,74,95,0,0 // vpshufb 0x5f4a(%rip),%ymm7,%ymm6 # 7240 <_sk_clut_4D_hsw+0xdea>
+ .byte 196,226,69,0,53,80,95,0,0 // vpshufb 0x5f50(%rip),%ymm7,%ymm6 # 7240 <_sk_clut_4D_hsw+0xdf2>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,152,90,0,0 // vbroadcastss 0x5a98(%rip),%ymm8 # 6da4 <_sk_clut_4D_hsw+0x94e>
+ .byte 196,98,125,24,5,150,90,0,0 // vbroadcastss 0x5a96(%rip),%ymm8 # 6d9c <_sk_clut_4D_hsw+0x94e>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,143,90,0,0 // vbroadcastss 0x5a8f(%rip),%ymm9 # 6da8 <_sk_clut_4D_hsw+0x952>
+ .byte 196,98,125,24,13,141,90,0,0 // vbroadcastss 0x5a8d(%rip),%ymm9 # 6da0 <_sk_clut_4D_hsw+0x952>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -17783,7 +17800,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,66 // jne 13b9 <_sk_srcover_rgba_8888_hsw+0x10c>
+ .byte 117,66 // jne 13b3 <_sk_srcover_rgba_8888_hsw+0x10c>
.byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -17793,33 +17810,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,58,255,255,255 // ja 12d4 <_sk_srcover_rgba_8888_hsw+0x27>
+ .byte 15,135,58,255,255,255 // ja 12ce <_sk_srcover_rgba_8888_hsw+0x27>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,255,0,0,0 // lea 0xff(%rip),%r11 # 14a4 <_sk_srcover_rgba_8888_hsw+0x1f7>
+ .byte 76,141,29,253,0,0,0 // lea 0xfd(%rip),%r11 # 149c <_sk_srcover_rgba_8888_hsw+0x1f5>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,153 // vmovd (%r9,%rbx,4),%xmm7
- .byte 233,27,255,255,255 // jmpq 12d4 <_sk_srcover_rgba_8888_hsw+0x27>
+ .byte 233,27,255,255,255 // jmpq 12ce <_sk_srcover_rgba_8888_hsw+0x27>
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,180 // ja 137d <_sk_srcover_rgba_8888_hsw+0xd0>
+ .byte 119,180 // ja 1377 <_sk_srcover_rgba_8888_hsw+0xd0>
.byte 65,15,182,194 // movzbl %r10b,%eax
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 14c0 <_sk_srcover_rgba_8888_hsw+0x213>
+ .byte 76,141,21,234,0,0,0 // lea 0xea(%rip),%r10 # 14b8 <_sk_srcover_rgba_8888_hsw+0x211>
.byte 73,99,4,130 // movslq (%r10,%rax,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,152 // jmp 137d <_sk_srcover_rgba_8888_hsw+0xd0>
+ .byte 235,152 // jmp 1377 <_sk_srcover_rgba_8888_hsw+0xd0>
.byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,153 // vmovq (%r9,%rbx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,200,254,255,255 // jmpq 12d4 <_sk_srcover_rgba_8888_hsw+0x27>
+ .byte 233,200,254,255,255 // jmpq 12ce <_sk_srcover_rgba_8888_hsw+0x27>
.byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -17832,10 +17849,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,153 // vmovdqu (%r9,%rbx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,121,254,255,255 // jmpq 12d4 <_sk_srcover_rgba_8888_hsw+0x27>
+ .byte 233,121,254,255,255 // jmpq 12ce <_sk_srcover_rgba_8888_hsw+0x27>
.byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
.byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 233,15,255,255,255 // jmpq 137d <_sk_srcover_rgba_8888_hsw+0xd0>
+ .byte 233,15,255,255,255 // jmpq 1377 <_sk_srcover_rgba_8888_hsw+0xd0>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -17843,33 +17860,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,153,16 // vmovd %xmm9,0x10(%r9,%rbx,4)
.byte 196,65,122,127,4,153 // vmovdqu %xmm8,(%r9,%rbx,4)
- .byte 233,219,254,255,255 // jmpq 137d <_sk_srcover_rgba_8888_hsw+0xd0>
- .byte 102,144 // xchg %ax,%ax
- .byte 10,255 // or %bh,%bh
+ .byte 233,219,254,255,255 // jmpq 1377 <_sk_srcover_rgba_8888_hsw+0xd0>
+ .byte 12,255 // or $0xff,%al
.byte 255 // (bad)
- .byte 255,87,255 // callq *-0x1(%rdi)
+ .byte 255,89,255 // lcall *-0x1(%rcx)
.byte 255 // (bad)
- .byte 255,65,255 // incl -0x1(%rcx)
+ .byte 255,67,255 // incl -0x1(%rbx)
.byte 255 // (bad)
- .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
+ .byte 255,168,255,255,255,148 // ljmp *-0x6b000001(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,128,255,255,255,106 // incl 0x6affffff(%rax)
.byte 255 // (bad)
- .byte 126,255 // jle 14b9 <_sk_srcover_rgba_8888_hsw+0x20c>
.byte 255 // (bad)
- .byte 255,104,255 // ljmp *-0x1(%rax)
+ .byte 255,31 // lcall *(%rdi)
.byte 255 // (bad)
- .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa40014c4 <_sk_clut_4D_hsw+0xffffffffa3ffb06e>
.byte 255 // (bad)
+ .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp)
.byte 255 // (bad)
- .byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,202 // dec %edx
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
+ .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -17890,7 +17907,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,170,88,0,0 // vbroadcastss 0x58aa(%rip),%ymm8 # 6dac <_sk_clut_4D_hsw+0x956>
+ .byte 196,98,125,24,5,170,88,0,0 // vbroadcastss 0x58aa(%rip),%ymm8 # 6da4 <_sk_clut_4D_hsw+0x956>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -17902,7 +17919,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,141,88,0,0 // vbroadcastss 0x588d(%rip),%ymm8 # 6db0 <_sk_clut_4D_hsw+0x95a>
+ .byte 196,98,125,24,5,141,88,0,0 // vbroadcastss 0x588d(%rip),%ymm8 # 6da8 <_sk_clut_4D_hsw+0x95a>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -17914,7 +17931,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,115,88,0,0 // vbroadcastss 0x5873(%rip),%ymm8 # 6db4 <_sk_clut_4D_hsw+0x95e>
+ .byte 196,98,125,24,5,115,88,0,0 // vbroadcastss 0x5873(%rip),%ymm8 # 6dac <_sk_clut_4D_hsw+0x95e>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -17947,7 +17964,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,50,88,0,0 // vbroadcastss 0x5832(%rip),%ymm8 # 6db8 <_sk_clut_4D_hsw+0x962>
+ .byte 196,98,125,24,5,50,88,0,0 // vbroadcastss 0x5832(%rip),%ymm8 # 6db0 <_sk_clut_4D_hsw+0x962>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -18003,7 +18020,7 @@ FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,198,87,0,0 // vbroadcastss 0x57c6(%rip),%ymm10 # 6dbc <_sk_clut_4D_hsw+0x966>
+ .byte 196,98,125,24,21,198,87,0,0 // vbroadcastss 0x57c6(%rip),%ymm10 # 6db4 <_sk_clut_4D_hsw+0x966>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -18016,16 +18033,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,167,87,0,0 // vbroadcastss 0x57a7(%rip),%ymm8 # 6dc0 <_sk_clut_4D_hsw+0x96a>
+ .byte 196,98,125,24,5,167,87,0,0 // vbroadcastss 0x57a7(%rip),%ymm8 # 6db8 <_sk_clut_4D_hsw+0x96a>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,153,87,0,0 // vbroadcastss 0x5799(%rip),%ymm11 # 6dc4 <_sk_clut_4D_hsw+0x96e>
- .byte 196,98,125,24,37,148,87,0,0 // vbroadcastss 0x5794(%rip),%ymm12 # 6dc8 <_sk_clut_4D_hsw+0x972>
+ .byte 196,98,125,24,29,153,87,0,0 // vbroadcastss 0x5799(%rip),%ymm11 # 6dbc <_sk_clut_4D_hsw+0x96e>
+ .byte 196,98,125,24,37,148,87,0,0 // vbroadcastss 0x5794(%rip),%ymm12 # 6dc0 <_sk_clut_4D_hsw+0x972>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,133,87,0,0 // vbroadcastss 0x5785(%rip),%ymm14 # 6dcc <_sk_clut_4D_hsw+0x976>
+ .byte 196,98,125,24,53,133,87,0,0 // vbroadcastss 0x5785(%rip),%ymm14 # 6dc4 <_sk_clut_4D_hsw+0x976>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,123,87,0,0 // vbroadcastss 0x577b(%rip),%ymm10 # 6dd0 <_sk_clut_4D_hsw+0x97a>
+ .byte 196,98,125,24,21,123,87,0,0 // vbroadcastss 0x577b(%rip),%ymm10 # 6dc8 <_sk_clut_4D_hsw+0x97a>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18048,16 +18065,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,35,87,0,0 // vbroadcastss 0x5723(%rip),%ymm8 # 6dd4 <_sk_clut_4D_hsw+0x97e>
+ .byte 196,98,125,24,5,35,87,0,0 // vbroadcastss 0x5723(%rip),%ymm8 # 6dcc <_sk_clut_4D_hsw+0x97e>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,21,87,0,0 // vbroadcastss 0x5715(%rip),%ymm11 # 6dd8 <_sk_clut_4D_hsw+0x982>
- .byte 196,98,125,24,37,16,87,0,0 // vbroadcastss 0x5710(%rip),%ymm12 # 6ddc <_sk_clut_4D_hsw+0x986>
+ .byte 196,98,125,24,29,21,87,0,0 // vbroadcastss 0x5715(%rip),%ymm11 # 6dd0 <_sk_clut_4D_hsw+0x982>
+ .byte 196,98,125,24,37,16,87,0,0 // vbroadcastss 0x5710(%rip),%ymm12 # 6dd4 <_sk_clut_4D_hsw+0x986>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,1,87,0,0 // vbroadcastss 0x5701(%rip),%ymm14 # 6de0 <_sk_clut_4D_hsw+0x98a>
+ .byte 196,98,125,24,53,1,87,0,0 // vbroadcastss 0x5701(%rip),%ymm14 # 6dd8 <_sk_clut_4D_hsw+0x98a>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,247,86,0,0 // vbroadcastss 0x56f7(%rip),%ymm10 # 6de4 <_sk_clut_4D_hsw+0x98e>
+ .byte 196,98,125,24,21,247,86,0,0 // vbroadcastss 0x56f7(%rip),%ymm10 # 6ddc <_sk_clut_4D_hsw+0x98e>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18081,19 +18098,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,155,86,0,0 // vbroadcastss 0x569b(%rip),%ymm8 # 6de8 <_sk_clut_4D_hsw+0x992>
+ .byte 196,98,125,24,5,155,86,0,0 // vbroadcastss 0x569b(%rip),%ymm8 # 6de0 <_sk_clut_4D_hsw+0x992>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,145,86,0,0 // vbroadcastss 0x5691(%rip),%ymm11 # 6dec <_sk_clut_4D_hsw+0x996>
- .byte 196,98,125,24,37,140,86,0,0 // vbroadcastss 0x568c(%rip),%ymm12 # 6df0 <_sk_clut_4D_hsw+0x99a>
+ .byte 196,98,125,24,29,145,86,0,0 // vbroadcastss 0x5691(%rip),%ymm11 # 6de4 <_sk_clut_4D_hsw+0x996>
+ .byte 196,98,125,24,37,140,86,0,0 // vbroadcastss 0x568c(%rip),%ymm12 # 6de8 <_sk_clut_4D_hsw+0x99a>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,125,86,0,0 // vbroadcastss 0x567d(%rip),%ymm14 # 6df4 <_sk_clut_4D_hsw+0x99e>
+ .byte 196,98,125,24,53,125,86,0,0 // vbroadcastss 0x567d(%rip),%ymm14 # 6dec <_sk_clut_4D_hsw+0x99e>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,115,86,0,0 // vbroadcastss 0x5673(%rip),%ymm15 # 6df8 <_sk_clut_4D_hsw+0x9a2>
+ .byte 196,98,125,24,61,115,86,0,0 // vbroadcastss 0x5673(%rip),%ymm15 # 6df0 <_sk_clut_4D_hsw+0x9a2>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,95,86,0,0 // vbroadcastss 0x565f(%rip),%ymm13 # 6dfc <_sk_clut_4D_hsw+0x9a6>
+ .byte 196,98,125,24,45,95,86,0,0 // vbroadcastss 0x565f(%rip),%ymm13 # 6df4 <_sk_clut_4D_hsw+0x9a6>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18127,26 +18144,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,124,93,201 // vminps %ymm1,%ymm0,%ymm9
.byte 197,52,93,202 // vminps %ymm2,%ymm9,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,212,85,0,0 // vbroadcastss 0x55d4(%rip),%ymm11 # 6e00 <_sk_clut_4D_hsw+0x9aa>
+ .byte 196,98,125,24,29,212,85,0,0 // vbroadcastss 0x55d4(%rip),%ymm11 # 6df8 <_sk_clut_4D_hsw+0x9aa>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,193,85,0,0 // vbroadcastss 0x55c1(%rip),%ymm14 # 6e04 <_sk_clut_4D_hsw+0x9ae>
+ .byte 196,98,125,24,53,193,85,0,0 // vbroadcastss 0x55c1(%rip),%ymm14 # 6dfc <_sk_clut_4D_hsw+0x9ae>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,168,85,0,0 // vbroadcastss 0x55a8(%rip),%ymm14 # 6e0c <_sk_clut_4D_hsw+0x9b6>
+ .byte 196,98,125,24,53,168,85,0,0 // vbroadcastss 0x55a8(%rip),%ymm14 # 6e04 <_sk_clut_4D_hsw+0x9b6>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,150,85,0,0 // vbroadcastss 0x5596(%rip),%ymm14 # 6e08 <_sk_clut_4D_hsw+0x9b2>
+ .byte 196,98,125,24,53,150,85,0,0 // vbroadcastss 0x5596(%rip),%ymm14 # 6e00 <_sk_clut_4D_hsw+0x9b2>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,121,85,0,0 // vbroadcastss 0x5579(%rip),%ymm11 # 6e14 <_sk_clut_4D_hsw+0x9be>
+ .byte 196,98,125,24,29,121,85,0,0 // vbroadcastss 0x5579(%rip),%ymm11 # 6e0c <_sk_clut_4D_hsw+0x9be>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -18156,7 +18173,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,60,85,0,0 // vbroadcastss 0x553c(%rip),%ymm8 # 6e10 <_sk_clut_4D_hsw+0x9ba>
+ .byte 196,98,125,24,5,60,85,0,0 // vbroadcastss 0x553c(%rip),%ymm8 # 6e08 <_sk_clut_4D_hsw+0x9ba>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18173,30 +18190,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,9,85,0,0 // vbroadcastss 0x5509(%rip),%ymm8 # 6e18 <_sk_clut_4D_hsw+0x9c2>
+ .byte 196,98,125,24,5,9,85,0,0 // vbroadcastss 0x5509(%rip),%ymm8 # 6e10 <_sk_clut_4D_hsw+0x9c2>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,236,84,0,0 // vbroadcastss 0x54ec(%rip),%ymm9 # 6e1c <_sk_clut_4D_hsw+0x9c6>
+ .byte 196,98,125,24,13,236,84,0,0 // vbroadcastss 0x54ec(%rip),%ymm9 # 6e14 <_sk_clut_4D_hsw+0x9c6>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,226,84,0,0 // vbroadcastss 0x54e2(%rip),%ymm11 # 6e20 <_sk_clut_4D_hsw+0x9ca>
+ .byte 196,98,125,24,29,226,84,0,0 // vbroadcastss 0x54e2(%rip),%ymm11 # 6e18 <_sk_clut_4D_hsw+0x9ca>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,204,84,0,0 // vbroadcastss 0x54cc(%rip),%ymm13 # 6e28 <_sk_clut_4D_hsw+0x9d2>
+ .byte 196,98,125,24,45,204,84,0,0 // vbroadcastss 0x54cc(%rip),%ymm13 # 6e20 <_sk_clut_4D_hsw+0x9d2>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,194,84,0,0 // vbroadcastss 0x54c2(%rip),%ymm14 # 6e2c <_sk_clut_4D_hsw+0x9d6>
+ .byte 196,98,125,24,53,194,84,0,0 // vbroadcastss 0x54c2(%rip),%ymm14 # 6e24 <_sk_clut_4D_hsw+0x9d6>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,168,84,0,0 // vbroadcastss 0x54a8(%rip),%ymm3 # 6e24 <_sk_clut_4D_hsw+0x9ce>
+ .byte 196,226,125,24,29,168,84,0,0 // vbroadcastss 0x54a8(%rip),%ymm3 # 6e1c <_sk_clut_4D_hsw+0x9ce>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,147,84,0,0 // vbroadcastss 0x5493(%rip),%ymm12 # 6e30 <_sk_clut_4D_hsw+0x9da>
+ .byte 196,98,125,24,37,147,84,0,0 // vbroadcastss 0x5493(%rip),%ymm12 # 6e28 <_sk_clut_4D_hsw+0x9da>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -18212,7 +18229,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,63,84,0,0 // vbroadcastss 0x543f(%rip),%ymm0 # 6e34 <_sk_clut_4D_hsw+0x9de>
+ .byte 196,226,125,24,5,63,84,0,0 // vbroadcastss 0x543f(%rip),%ymm0 # 6e2c <_sk_clut_4D_hsw+0x9de>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -18265,12 +18282,12 @@ _sk_scale_u8_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,59 // jne 1ae6 <_sk_scale_u8_hsw+0x54>
+ .byte 117,59 // jne 1ade <_sk_scale_u8_hsw+0x54>
.byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8
- .byte 197,57,219,5,71,90,0,0 // vpand 0x5a47(%rip),%xmm8,%xmm8 # 7500 <_sk_clut_4D_hsw+0x10aa>
+ .byte 197,57,219,5,79,90,0,0 // vpand 0x5a4f(%rip),%xmm8,%xmm8 # 7500 <_sk_clut_4D_hsw+0x10b2>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,108,83,0,0 // vbroadcastss 0x536c(%rip),%ymm9 # 6e38 <_sk_clut_4D_hsw+0x9e2>
+ .byte 196,98,125,24,13,108,83,0,0 // vbroadcastss 0x536c(%rip),%ymm9 # 6e30 <_sk_clut_4D_hsw+0x9e2>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18284,15 +18301,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,182 // ja 1ab1 <_sk_scale_u8_hsw+0x1f>
+ .byte 119,182 // ja 1aa9 <_sk_scale_u8_hsw+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 1b80 <_sk_scale_u8_hsw+0xee>
+ .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 1b78 <_sk_scale_u8_hsw+0xee>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,151 // jmp 1ab1 <_sk_scale_u8_hsw+0x1f>
+ .byte 235,151 // jmp 1aa9 <_sk_scale_u8_hsw+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18300,7 +18317,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,110,255,255,255 // jmpq 1ab1 <_sk_scale_u8_hsw+0x1f>
+ .byte 233,110,255,255,255 // jmpq 1aa9 <_sk_scale_u8_hsw+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18311,7 +18328,7 @@ _sk_scale_u8_hsw:
.byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,50,255,255,255 // jmpq 1ab1 <_sk_scale_u8_hsw+0x1f>
+ .byte 233,50,255,255,255 // jmpq 1aa9 <_sk_scale_u8_hsw+0x1f>
.byte 144 // nop
.byte 143 // (bad)
.byte 255 // (bad)
@@ -18320,7 +18337,7 @@ _sk_scale_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf001b90 <_sk_clut_4D_hsw+0xffffffffdeffb73a>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf001b88 <_sk_clut_4D_hsw+0xffffffffdeffb73a>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18360,12 +18377,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,79 // jne 1c33 <_sk_lerp_u8_hsw+0x68>
+ .byte 117,79 // jne 1c2b <_sk_lerp_u8_hsw+0x68>
.byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8
- .byte 197,57,219,5,30,89,0,0 // vpand 0x591e(%rip),%xmm8,%xmm8 # 7510 <_sk_clut_4D_hsw+0x10ba>
+ .byte 197,57,219,5,38,89,0,0 // vpand 0x5926(%rip),%xmm8,%xmm8 # 7510 <_sk_clut_4D_hsw+0x10c2>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,55,82,0,0 // vbroadcastss 0x5237(%rip),%ymm9 # 6e3c <_sk_clut_4D_hsw+0x9e6>
+ .byte 196,98,125,24,13,55,82,0,0 // vbroadcastss 0x5237(%rip),%ymm9 # 6e34 <_sk_clut_4D_hsw+0x9e6>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -18383,15 +18400,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,162 // ja 1bea <_sk_lerp_u8_hsw+0x1f>
+ .byte 119,162 // ja 1be2 <_sk_lerp_u8_hsw+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 1ccc <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 1cc4 <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,131 // jmp 1bea <_sk_lerp_u8_hsw+0x1f>
+ .byte 235,131 // jmp 1be2 <_sk_lerp_u8_hsw+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18399,7 +18416,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,90,255,255,255 // jmpq 1bea <_sk_lerp_u8_hsw+0x1f>
+ .byte 233,90,255,255,255 // jmpq 1be2 <_sk_lerp_u8_hsw+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18410,7 +18427,7 @@ _sk_lerp_u8_hsw:
.byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,30,255,255,255 // jmpq 1bea <_sk_lerp_u8_hsw+0x1f>
+ .byte 233,30,255,255,255 // jmpq 1be2 <_sk_lerp_u8_hsw+0x1f>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -18445,23 +18462,23 @@ _sk_lerp_565_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,170,0,0,0 // jne 1db2 <_sk_lerp_565_hsw+0xca>
+ .byte 15,133,170,0,0,0 // jne 1daa <_sk_lerp_565_hsw+0xca>
.byte 196,65,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,36,81,0,0 // vpbroadcastd 0x5124(%rip),%ymm9 # 6e40 <_sk_clut_4D_hsw+0x9ea>
+ .byte 196,98,125,88,13,36,81,0,0 // vpbroadcastd 0x5124(%rip),%ymm9 # 6e38 <_sk_clut_4D_hsw+0x9ea>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,21,81,0,0 // vbroadcastss 0x5115(%rip),%ymm10 # 6e44 <_sk_clut_4D_hsw+0x9ee>
+ .byte 196,98,125,24,21,21,81,0,0 // vbroadcastss 0x5115(%rip),%ymm10 # 6e3c <_sk_clut_4D_hsw+0x9ee>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,11,81,0,0 // vpbroadcastd 0x510b(%rip),%ymm10 # 6e48 <_sk_clut_4D_hsw+0x9f2>
+ .byte 196,98,125,88,21,11,81,0,0 // vpbroadcastd 0x510b(%rip),%ymm10 # 6e40 <_sk_clut_4D_hsw+0x9f2>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,252,80,0,0 // vbroadcastss 0x50fc(%rip),%ymm11 # 6e4c <_sk_clut_4D_hsw+0x9f6>
+ .byte 196,98,125,24,29,252,80,0,0 // vbroadcastss 0x50fc(%rip),%ymm11 # 6e44 <_sk_clut_4D_hsw+0x9f6>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,242,80,0,0 // vpbroadcastd 0x50f2(%rip),%ymm11 # 6e50 <_sk_clut_4D_hsw+0x9fa>
+ .byte 196,98,125,88,29,242,80,0,0 // vpbroadcastd 0x50f2(%rip),%ymm11 # 6e48 <_sk_clut_4D_hsw+0x9fa>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,227,80,0,0 // vbroadcastss 0x50e3(%rip),%ymm11 # 6e54 <_sk_clut_4D_hsw+0x9fe>
+ .byte 196,98,125,24,29,227,80,0,0 // vbroadcastss 0x50e3(%rip),%ymm11 # 6e4c <_sk_clut_4D_hsw+0x9fe>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,53,168,196 // vfmadd213ps %ymm4,%ymm9,%ymm0
@@ -18483,27 +18500,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,67,255,255,255 // ja 1d0e <_sk_lerp_565_hsw+0x26>
+ .byte 15,135,67,255,255,255 // ja 1d06 <_sk_lerp_565_hsw+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,102,0,0,0 // lea 0x66(%rip),%r11 # 1e3c <_sk_lerp_565_hsw+0x154>
+ .byte 76,141,29,102,0,0,0 // lea 0x66(%rip),%r11 # 1e34 <_sk_lerp_565_hsw+0x154>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,33,255,255,255 // jmpq 1d0e <_sk_lerp_565_hsw+0x26>
+ .byte 233,33,255,255,255 // jmpq 1d06 <_sk_lerp_565_hsw+0x26>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,3,255,255,255 // jmpq 1d0e <_sk_lerp_565_hsw+0x26>
+ .byte 233,3,255,255,255 // jmpq 1d06 <_sk_lerp_565_hsw+0x26>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,213,254,255,255 // jmpq 1d0e <_sk_lerp_565_hsw+0x26>
+ .byte 233,213,254,255,255 // jmpq 1d06 <_sk_lerp_565_hsw+0x26>
.byte 15,31,0 // nopl (%rax)
.byte 163,255,255,255,190,255,255,255,177 // movabs %eax,0xb1ffffffbeffffff
.byte 255 // (bad)
@@ -18530,23 +18547,23 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,8 // mov (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 117,103 // jne 1ec9 <_sk_load_tables_hsw+0x71>
+ .byte 117,103 // jne 1ec1 <_sk_load_tables_hsw+0x71>
.byte 196,193,126,111,28,145 // vmovdqu (%r9,%rdx,4),%ymm3
- .byte 197,229,219,13,240,83,0,0 // vpand 0x53f0(%rip),%ymm3,%ymm1 # 7260 <_sk_clut_4D_hsw+0xe0a>
+ .byte 197,229,219,13,248,83,0,0 // vpand 0x53f8(%rip),%ymm3,%ymm1 # 7260 <_sk_clut_4D_hsw+0xe12>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 76,139,80,16 // mov 0x10(%rax),%r10
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
.byte 196,194,109,146,4,137 // vgatherdps %ymm2,(%r9,%ymm1,4),%ymm0
- .byte 196,226,101,0,21,240,83,0,0 // vpshufb 0x53f0(%rip),%ymm3,%ymm2 # 7280 <_sk_clut_4D_hsw+0xe2a>
+ .byte 196,226,101,0,21,248,83,0,0 // vpshufb 0x53f8(%rip),%ymm3,%ymm2 # 7280 <_sk_clut_4D_hsw+0xe32>
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,12,146 // vgatherdps %ymm9,(%r10,%ymm2,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,248,83,0,0 // vpshufb 0x53f8(%rip),%ymm3,%ymm9 # 72a0 <_sk_clut_4D_hsw+0xe4a>
+ .byte 196,98,101,0,13,0,84,0,0 // vpshufb 0x5400(%rip),%ymm3,%ymm9 # 72a0 <_sk_clut_4D_hsw+0xe52>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,152,79,0,0 // vbroadcastss 0x4f98(%rip),%ymm8 # 6e58 <_sk_clut_4D_hsw+0xa02>
+ .byte 196,98,125,24,5,152,79,0,0 // vbroadcastss 0x4f98(%rip),%ymm8 # 6e50 <_sk_clut_4D_hsw+0xa02>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18555,21 +18572,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,139 // ja 1e68 <_sk_load_tables_hsw+0x10>
+ .byte 119,139 // ja 1e60 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,140,0,0,0 // lea 0x8c(%rip),%r11 # 1f74 <_sk_load_tables_hsw+0x11c>
+ .byte 76,141,29,140,0,0,0 // lea 0x8c(%rip),%r11 # 1f6c <_sk_load_tables_hsw+0x11c>
.byte 79,99,20,147 // movslq (%r11,%r10,4),%r10
.byte 77,1,218 // add %r11,%r10
.byte 65,255,226 // jmpq *%r10
.byte 196,193,121,110,28,145 // vmovd (%r9,%rdx,4),%xmm3
- .byte 233,107,255,255,255 // jmpq 1e68 <_sk_load_tables_hsw+0x10>
+ .byte 233,107,255,255,255 // jmpq 1e60 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,145,8 // vmovd 0x8(%r9,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,145 // vmovq (%r9,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,68,255,255,255 // jmpq 1e68 <_sk_load_tables_hsw+0x10>
+ .byte 233,68,255,255,255 // jmpq 1e60 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,145,24 // vmovd 0x18(%r9,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -18582,9 +18599,9 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,145 // vmovdqu (%r9,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,245,254,255,255 // jmpq 1e68 <_sk_load_tables_hsw+0x10>
+ .byte 233,245,254,255,255 // jmpq 1e60 <_sk_load_tables_hsw+0x10>
.byte 144 // nop
- .byte 126,255 // jle 1f75 <_sk_load_tables_hsw+0x11d>
+ .byte 126,255 // jle 1f6d <_sk_load_tables_hsw+0x11d>
.byte 255 // (bad)
.byte 255,159,255,255,255,137 // lcall *-0x76000001(%rdi)
.byte 255 // (bad)
@@ -18612,7 +18629,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,8 // mov (%rax),%r9
.byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,201,0,0,0 // jne 206f <_sk_load_tables_u16_be_hsw+0xdf>
+ .byte 15,133,201,0,0,0 // jne 2067 <_sk_load_tables_u16_be_hsw+0xdf>
.byte 196,1,121,16,4,81 // vmovupd (%r9,%r10,2),%xmm8
.byte 196,129,121,16,84,81,16 // vmovupd 0x10(%r9,%r10,2),%xmm2
.byte 196,129,121,16,92,81,32 // vmovupd 0x20(%r9,%r10,2),%xmm3
@@ -18628,7 +18645,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,185,109,208 // vpunpckhqdq %xmm0,%xmm8,%xmm2
.byte 197,49,108,195 // vpunpcklqdq %xmm3,%xmm9,%xmm8
- .byte 197,121,111,21,41,85,0,0 // vmovdqa 0x5529(%rip),%xmm10 # 7520 <_sk_clut_4D_hsw+0x10ca>
+ .byte 197,121,111,21,49,85,0,0 // vmovdqa 0x5531(%rip),%xmm10 # 7520 <_sk_clut_4D_hsw+0x10d2>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
@@ -18650,36 +18667,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,246,77,0,0 // vbroadcastss 0x4df6(%rip),%ymm8 # 6e5c <_sk_clut_4D_hsw+0xa06>
+ .byte 196,98,125,24,5,246,77,0,0 // vbroadcastss 0x4df6(%rip),%ymm8 # 6e54 <_sk_clut_4D_hsw+0xa06>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,81 // vmovsd (%r9,%r10,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 20d5 <_sk_load_tables_u16_be_hsw+0x145>
+ .byte 116,85 // je 20cd <_sk_load_tables_u16_be_hsw+0x145>
.byte 196,1,57,22,68,81,8 // vmovhpd 0x8(%r9,%r10,2),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 20d5 <_sk_load_tables_u16_be_hsw+0x145>
+ .byte 114,72 // jb 20cd <_sk_load_tables_u16_be_hsw+0x145>
.byte 196,129,123,16,84,81,16 // vmovsd 0x10(%r9,%r10,2),%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 20e2 <_sk_load_tables_u16_be_hsw+0x152>
+ .byte 116,72 // je 20da <_sk_load_tables_u16_be_hsw+0x152>
.byte 196,129,105,22,84,81,24 // vmovhpd 0x18(%r9,%r10,2),%xmm2,%xmm2
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 20e2 <_sk_load_tables_u16_be_hsw+0x152>
+ .byte 114,59 // jb 20da <_sk_load_tables_u16_be_hsw+0x152>
.byte 196,129,123,16,92,81,32 // vmovsd 0x20(%r9,%r10,2),%xmm3
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,9,255,255,255 // je 1fc1 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,9,255,255,255 // je 1fb9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,81,40 // vmovhpd 0x28(%r9,%r10,2),%xmm3,%xmm3
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,248,254,255,255 // jb 1fc1 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,248,254,255,255 // jb 1fb9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,81,48 // vmovq 0x30(%r9,%r10,2),%xmm9
- .byte 233,236,254,255,255 // jmpq 1fc1 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,236,254,255,255 // jmpq 1fb9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,223,254,255,255 // jmpq 1fc1 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,223,254,255,255 // jmpq 1fb9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,214,254,255,255 // jmpq 1fc1 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,214,254,255,255 // jmpq 1fb9 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -18689,7 +18706,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,8 // mov (%rax),%r9
.byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,193,0,0,0 // jne 21be <_sk_load_tables_rgb_u16_be_hsw+0xd3>
+ .byte 15,133,193,0,0,0 // jne 21b6 <_sk_load_tables_rgb_u16_be_hsw+0xd3>
.byte 196,129,122,111,4,81 // vmovdqu (%r9,%r10,2),%xmm0
.byte 196,129,122,111,84,81,12 // vmovdqu 0xc(%r9,%r10,2),%xmm2
.byte 196,129,122,111,76,81,24 // vmovdqu 0x18(%r9,%r10,2),%xmm1
@@ -18710,7 +18727,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,185,108,218 // vpunpcklqdq %xmm2,%xmm8,%xmm3
.byte 197,185,109,210 // vpunpckhqdq %xmm2,%xmm8,%xmm2
.byte 197,121,108,193 // vpunpcklqdq %xmm1,%xmm0,%xmm8
- .byte 197,121,111,13,201,83,0,0 // vmovdqa 0x53c9(%rip),%xmm9 # 7530 <_sk_clut_4D_hsw+0x10da>
+ .byte 197,121,111,13,209,83,0,0 // vmovdqa 0x53d1(%rip),%xmm9 # 7530 <_sk_clut_4D_hsw+0x10e2>
.byte 196,193,97,219,193 // vpand %xmm9,%xmm3,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -18727,48 +18744,48 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8
.byte 196,162,101,146,20,128 // vgatherdps %ymm3,(%rax,%ymm8,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,164,76,0,0 // vbroadcastss 0x4ca4(%rip),%ymm3 # 6e60 <_sk_clut_4D_hsw+0xa0a>
+ .byte 196,226,125,24,29,164,76,0,0 // vbroadcastss 0x4ca4(%rip),%ymm3 # 6e58 <_sk_clut_4D_hsw+0xa0a>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,81 // vmovd (%r9,%r10,2),%xmm0
.byte 196,129,121,196,68,81,4,2 // vpinsrw $0x2,0x4(%r9,%r10,2),%xmm0,%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,5 // jne 21d7 <_sk_load_tables_rgb_u16_be_hsw+0xec>
- .byte 233,90,255,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,5 // jne 21cf <_sk_load_tables_rgb_u16_be_hsw+0xec>
+ .byte 233,90,255,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,76,81,6 // vmovd 0x6(%r9,%r10,2),%xmm1
.byte 196,1,113,196,68,81,10,2 // vpinsrw $0x2,0xa(%r9,%r10,2),%xmm1,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,26 // jb 2206 <_sk_load_tables_rgb_u16_be_hsw+0x11b>
+ .byte 114,26 // jb 21fe <_sk_load_tables_rgb_u16_be_hsw+0x11b>
.byte 196,129,121,110,76,81,12 // vmovd 0xc(%r9,%r10,2),%xmm1
.byte 196,129,113,196,84,81,16,2 // vpinsrw $0x2,0x10(%r9,%r10,2),%xmm1,%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 117,10 // jne 220b <_sk_load_tables_rgb_u16_be_hsw+0x120>
- .byte 233,43,255,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,38,255,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 2203 <_sk_load_tables_rgb_u16_be_hsw+0x120>
+ .byte 233,43,255,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,38,255,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,76,81,18 // vmovd 0x12(%r9,%r10,2),%xmm1
.byte 196,1,113,196,76,81,22,2 // vpinsrw $0x2,0x16(%r9,%r10,2),%xmm1,%xmm9
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,26 // jb 223a <_sk_load_tables_rgb_u16_be_hsw+0x14f>
+ .byte 114,26 // jb 2232 <_sk_load_tables_rgb_u16_be_hsw+0x14f>
.byte 196,129,121,110,76,81,24 // vmovd 0x18(%r9,%r10,2),%xmm1
.byte 196,129,113,196,76,81,28,2 // vpinsrw $0x2,0x1c(%r9,%r10,2),%xmm1,%xmm1
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 117,10 // jne 223f <_sk_load_tables_rgb_u16_be_hsw+0x154>
- .byte 233,247,254,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,242,254,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 2237 <_sk_load_tables_rgb_u16_be_hsw+0x154>
+ .byte 233,247,254,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,242,254,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,92,81,30 // vmovd 0x1e(%r9,%r10,2),%xmm3
.byte 196,1,97,196,92,81,34,2 // vpinsrw $0x2,0x22(%r9,%r10,2),%xmm3,%xmm11
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,20 // jb 2268 <_sk_load_tables_rgb_u16_be_hsw+0x17d>
+ .byte 114,20 // jb 2260 <_sk_load_tables_rgb_u16_be_hsw+0x17d>
.byte 196,129,121,110,92,81,36 // vmovd 0x24(%r9,%r10,2),%xmm3
.byte 196,129,97,196,92,81,40,2 // vpinsrw $0x2,0x28(%r9,%r10,2),%xmm3,%xmm3
- .byte 233,201,254,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,196,254,255,255 // jmpq 2131 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,201,254,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,196,254,255,255 // jmpq 2129 <_sk_load_tables_rgb_u16_be_hsw+0x46>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,236,75,0,0 // vbroadcastss 0x4bec(%rip),%ymm8 # 6e64 <_sk_clut_4D_hsw+0xa0e>
+ .byte 196,98,125,24,5,236,75,0,0 // vbroadcastss 0x4bec(%rip),%ymm8 # 6e5c <_sk_clut_4D_hsw+0xa0e>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,201 // vmovq %xmm9,%r9
@@ -18890,7 +18907,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,26 // movzbl (%r10,%r11,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,145,73,0,0 // vbroadcastss 0x4991(%rip),%ymm8 # 6e68 <_sk_clut_4D_hsw+0xa12>
+ .byte 196,98,125,24,5,145,73,0,0 // vbroadcastss 0x4991(%rip),%ymm8 # 6e60 <_sk_clut_4D_hsw+0xa12>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19006,7 +19023,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,26 // movzbl (%r10,%r11,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,125,71,0,0 // vbroadcastss 0x477d(%rip),%ymm8 # 6e6c <_sk_clut_4D_hsw+0xa16>
+ .byte 196,98,125,24,5,125,71,0,0 // vbroadcastss 0x477d(%rip),%ymm8 # 6e64 <_sk_clut_4D_hsw+0xa16>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19105,33 +19122,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,87,70,0,0 // vbroadcastss 0x4657(%rip),%ymm12 # 6e70 <_sk_clut_4D_hsw+0xa1a>
- .byte 196,98,125,24,45,82,70,0,0 // vbroadcastss 0x4652(%rip),%ymm13 # 6e74 <_sk_clut_4D_hsw+0xa1e>
+ .byte 196,98,125,24,37,87,70,0,0 // vbroadcastss 0x4657(%rip),%ymm12 # 6e68 <_sk_clut_4D_hsw+0xa1a>
+ .byte 196,98,125,24,45,82,70,0,0 // vbroadcastss 0x4652(%rip),%ymm13 # 6e6c <_sk_clut_4D_hsw+0xa1e>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,72,70,0,0 // vbroadcastss 0x4648(%rip),%ymm13 # 6e78 <_sk_clut_4D_hsw+0xa22>
+ .byte 196,98,125,24,45,72,70,0,0 // vbroadcastss 0x4648(%rip),%ymm13 # 6e70 <_sk_clut_4D_hsw+0xa22>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,62,70,0,0 // vbroadcastss 0x463e(%rip),%ymm13 # 6e7c <_sk_clut_4D_hsw+0xa26>
+ .byte 196,98,125,24,45,62,70,0,0 // vbroadcastss 0x463e(%rip),%ymm13 # 6e74 <_sk_clut_4D_hsw+0xa26>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,52,70,0,0 // vbroadcastss 0x4634(%rip),%ymm11 # 6e80 <_sk_clut_4D_hsw+0xa2a>
+ .byte 196,98,125,24,29,52,70,0,0 // vbroadcastss 0x4634(%rip),%ymm11 # 6e78 <_sk_clut_4D_hsw+0xa2a>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,42,70,0,0 // vbroadcastss 0x462a(%rip),%ymm12 # 6e84 <_sk_clut_4D_hsw+0xa2e>
+ .byte 196,98,125,24,37,42,70,0,0 // vbroadcastss 0x462a(%rip),%ymm12 # 6e7c <_sk_clut_4D_hsw+0xa2e>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,32,70,0,0 // vbroadcastss 0x4620(%rip),%ymm12 # 6e88 <_sk_clut_4D_hsw+0xa32>
+ .byte 196,98,125,24,37,32,70,0,0 // vbroadcastss 0x4620(%rip),%ymm12 # 6e80 <_sk_clut_4D_hsw+0xa32>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,1,70,0,0 // vbroadcastss 0x4601(%rip),%ymm11 # 6e8c <_sk_clut_4D_hsw+0xa36>
+ .byte 196,98,125,24,29,1,70,0,0 // vbroadcastss 0x4601(%rip),%ymm11 # 6e84 <_sk_clut_4D_hsw+0xa36>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,247,69,0,0 // vbroadcastss 0x45f7(%rip),%ymm11 # 6e90 <_sk_clut_4D_hsw+0xa3a>
+ .byte 196,98,125,24,29,247,69,0,0 // vbroadcastss 0x45f7(%rip),%ymm11 # 6e88 <_sk_clut_4D_hsw+0xa3a>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,237,69,0,0 // vbroadcastss 0x45ed(%rip),%ymm0 # 6e94 <_sk_clut_4D_hsw+0xa3e>
+ .byte 196,226,125,24,5,237,69,0,0 // vbroadcastss 0x45ed(%rip),%ymm0 # 6e8c <_sk_clut_4D_hsw+0xa3e>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,227,69,0,0 // vbroadcastss 0x45e3(%rip),%ymm10 # 6e98 <_sk_clut_4D_hsw+0xa42>
+ .byte 196,98,125,24,21,227,69,0,0 // vbroadcastss 0x45e3(%rip),%ymm10 # 6e90 <_sk_clut_4D_hsw+0xa42>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,214,69,0,0 // vbroadcastss 0x45d6(%rip),%ymm10 # 6e9c <_sk_clut_4D_hsw+0xa46>
+ .byte 196,98,125,24,21,214,69,0,0 // vbroadcastss 0x45d6(%rip),%ymm10 # 6e94 <_sk_clut_4D_hsw+0xa46>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19139,7 +19156,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,173,69,0,0 // vbroadcastss 0x45ad(%rip),%ymm8 # 6ea0 <_sk_clut_4D_hsw+0xa4a>
+ .byte 196,98,125,24,5,173,69,0,0 // vbroadcastss 0x45ad(%rip),%ymm8 # 6e98 <_sk_clut_4D_hsw+0xa4a>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19159,33 +19176,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,101,69,0,0 // vbroadcastss 0x4565(%rip),%ymm12 # 6ea4 <_sk_clut_4D_hsw+0xa4e>
- .byte 196,98,125,24,45,96,69,0,0 // vbroadcastss 0x4560(%rip),%ymm13 # 6ea8 <_sk_clut_4D_hsw+0xa52>
+ .byte 196,98,125,24,37,101,69,0,0 // vbroadcastss 0x4565(%rip),%ymm12 # 6e9c <_sk_clut_4D_hsw+0xa4e>
+ .byte 196,98,125,24,45,96,69,0,0 // vbroadcastss 0x4560(%rip),%ymm13 # 6ea0 <_sk_clut_4D_hsw+0xa52>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,86,69,0,0 // vbroadcastss 0x4556(%rip),%ymm13 # 6eac <_sk_clut_4D_hsw+0xa56>
+ .byte 196,98,125,24,45,86,69,0,0 // vbroadcastss 0x4556(%rip),%ymm13 # 6ea4 <_sk_clut_4D_hsw+0xa56>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,76,69,0,0 // vbroadcastss 0x454c(%rip),%ymm13 # 6eb0 <_sk_clut_4D_hsw+0xa5a>
+ .byte 196,98,125,24,45,76,69,0,0 // vbroadcastss 0x454c(%rip),%ymm13 # 6ea8 <_sk_clut_4D_hsw+0xa5a>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,66,69,0,0 // vbroadcastss 0x4542(%rip),%ymm11 # 6eb4 <_sk_clut_4D_hsw+0xa5e>
+ .byte 196,98,125,24,29,66,69,0,0 // vbroadcastss 0x4542(%rip),%ymm11 # 6eac <_sk_clut_4D_hsw+0xa5e>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,56,69,0,0 // vbroadcastss 0x4538(%rip),%ymm12 # 6eb8 <_sk_clut_4D_hsw+0xa62>
+ .byte 196,98,125,24,37,56,69,0,0 // vbroadcastss 0x4538(%rip),%ymm12 # 6eb0 <_sk_clut_4D_hsw+0xa62>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,46,69,0,0 // vbroadcastss 0x452e(%rip),%ymm12 # 6ebc <_sk_clut_4D_hsw+0xa66>
+ .byte 196,98,125,24,37,46,69,0,0 // vbroadcastss 0x452e(%rip),%ymm12 # 6eb4 <_sk_clut_4D_hsw+0xa66>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,15,69,0,0 // vbroadcastss 0x450f(%rip),%ymm11 # 6ec0 <_sk_clut_4D_hsw+0xa6a>
+ .byte 196,98,125,24,29,15,69,0,0 // vbroadcastss 0x450f(%rip),%ymm11 # 6eb8 <_sk_clut_4D_hsw+0xa6a>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,5,69,0,0 // vbroadcastss 0x4505(%rip),%ymm11 # 6ec4 <_sk_clut_4D_hsw+0xa6e>
+ .byte 196,98,125,24,29,5,69,0,0 // vbroadcastss 0x4505(%rip),%ymm11 # 6ebc <_sk_clut_4D_hsw+0xa6e>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,251,68,0,0 // vbroadcastss 0x44fb(%rip),%ymm1 # 6ec8 <_sk_clut_4D_hsw+0xa72>
+ .byte 196,226,125,24,13,251,68,0,0 // vbroadcastss 0x44fb(%rip),%ymm1 # 6ec0 <_sk_clut_4D_hsw+0xa72>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,241,68,0,0 // vbroadcastss 0x44f1(%rip),%ymm10 # 6ecc <_sk_clut_4D_hsw+0xa76>
+ .byte 196,98,125,24,21,241,68,0,0 // vbroadcastss 0x44f1(%rip),%ymm10 # 6ec4 <_sk_clut_4D_hsw+0xa76>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,228,68,0,0 // vbroadcastss 0x44e4(%rip),%ymm10 # 6ed0 <_sk_clut_4D_hsw+0xa7a>
+ .byte 196,98,125,24,21,228,68,0,0 // vbroadcastss 0x44e4(%rip),%ymm10 # 6ec8 <_sk_clut_4D_hsw+0xa7a>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19193,7 +19210,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,187,68,0,0 // vbroadcastss 0x44bb(%rip),%ymm8 # 6ed4 <_sk_clut_4D_hsw+0xa7e>
+ .byte 196,98,125,24,5,187,68,0,0 // vbroadcastss 0x44bb(%rip),%ymm8 # 6ecc <_sk_clut_4D_hsw+0xa7e>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19213,33 +19230,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,115,68,0,0 // vbroadcastss 0x4473(%rip),%ymm12 # 6ed8 <_sk_clut_4D_hsw+0xa82>
- .byte 196,98,125,24,45,110,68,0,0 // vbroadcastss 0x446e(%rip),%ymm13 # 6edc <_sk_clut_4D_hsw+0xa86>
+ .byte 196,98,125,24,37,115,68,0,0 // vbroadcastss 0x4473(%rip),%ymm12 # 6ed0 <_sk_clut_4D_hsw+0xa82>
+ .byte 196,98,125,24,45,110,68,0,0 // vbroadcastss 0x446e(%rip),%ymm13 # 6ed4 <_sk_clut_4D_hsw+0xa86>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,100,68,0,0 // vbroadcastss 0x4464(%rip),%ymm13 # 6ee0 <_sk_clut_4D_hsw+0xa8a>
+ .byte 196,98,125,24,45,100,68,0,0 // vbroadcastss 0x4464(%rip),%ymm13 # 6ed8 <_sk_clut_4D_hsw+0xa8a>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,90,68,0,0 // vbroadcastss 0x445a(%rip),%ymm13 # 6ee4 <_sk_clut_4D_hsw+0xa8e>
+ .byte 196,98,125,24,45,90,68,0,0 // vbroadcastss 0x445a(%rip),%ymm13 # 6edc <_sk_clut_4D_hsw+0xa8e>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,80,68,0,0 // vbroadcastss 0x4450(%rip),%ymm11 # 6ee8 <_sk_clut_4D_hsw+0xa92>
+ .byte 196,98,125,24,29,80,68,0,0 // vbroadcastss 0x4450(%rip),%ymm11 # 6ee0 <_sk_clut_4D_hsw+0xa92>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,70,68,0,0 // vbroadcastss 0x4446(%rip),%ymm12 # 6eec <_sk_clut_4D_hsw+0xa96>
+ .byte 196,98,125,24,37,70,68,0,0 // vbroadcastss 0x4446(%rip),%ymm12 # 6ee4 <_sk_clut_4D_hsw+0xa96>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,60,68,0,0 // vbroadcastss 0x443c(%rip),%ymm12 # 6ef0 <_sk_clut_4D_hsw+0xa9a>
+ .byte 196,98,125,24,37,60,68,0,0 // vbroadcastss 0x443c(%rip),%ymm12 # 6ee8 <_sk_clut_4D_hsw+0xa9a>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,29,68,0,0 // vbroadcastss 0x441d(%rip),%ymm11 # 6ef4 <_sk_clut_4D_hsw+0xa9e>
+ .byte 196,98,125,24,29,29,68,0,0 // vbroadcastss 0x441d(%rip),%ymm11 # 6eec <_sk_clut_4D_hsw+0xa9e>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,19,68,0,0 // vbroadcastss 0x4413(%rip),%ymm11 # 6ef8 <_sk_clut_4D_hsw+0xaa2>
+ .byte 196,98,125,24,29,19,68,0,0 // vbroadcastss 0x4413(%rip),%ymm11 # 6ef0 <_sk_clut_4D_hsw+0xaa2>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,9,68,0,0 // vbroadcastss 0x4409(%rip),%ymm2 # 6efc <_sk_clut_4D_hsw+0xaa6>
+ .byte 196,226,125,24,21,9,68,0,0 // vbroadcastss 0x4409(%rip),%ymm2 # 6ef4 <_sk_clut_4D_hsw+0xaa6>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,255,67,0,0 // vbroadcastss 0x43ff(%rip),%ymm10 # 6f00 <_sk_clut_4D_hsw+0xaaa>
+ .byte 196,98,125,24,21,255,67,0,0 // vbroadcastss 0x43ff(%rip),%ymm10 # 6ef8 <_sk_clut_4D_hsw+0xaaa>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,242,67,0,0 // vbroadcastss 0x43f2(%rip),%ymm10 # 6f04 <_sk_clut_4D_hsw+0xaae>
+ .byte 196,98,125,24,21,242,67,0,0 // vbroadcastss 0x43f2(%rip),%ymm10 # 6efc <_sk_clut_4D_hsw+0xaae>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19247,7 +19264,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,201,67,0,0 // vbroadcastss 0x43c9(%rip),%ymm8 # 6f08 <_sk_clut_4D_hsw+0xab2>
+ .byte 196,98,125,24,5,201,67,0,0 // vbroadcastss 0x43c9(%rip),%ymm8 # 6f00 <_sk_clut_4D_hsw+0xab2>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19267,33 +19284,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,129,67,0,0 // vbroadcastss 0x4381(%rip),%ymm12 # 6f0c <_sk_clut_4D_hsw+0xab6>
- .byte 196,98,125,24,45,124,67,0,0 // vbroadcastss 0x437c(%rip),%ymm13 # 6f10 <_sk_clut_4D_hsw+0xaba>
+ .byte 196,98,125,24,37,129,67,0,0 // vbroadcastss 0x4381(%rip),%ymm12 # 6f04 <_sk_clut_4D_hsw+0xab6>
+ .byte 196,98,125,24,45,124,67,0,0 // vbroadcastss 0x437c(%rip),%ymm13 # 6f08 <_sk_clut_4D_hsw+0xaba>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,114,67,0,0 // vbroadcastss 0x4372(%rip),%ymm13 # 6f14 <_sk_clut_4D_hsw+0xabe>
+ .byte 196,98,125,24,45,114,67,0,0 // vbroadcastss 0x4372(%rip),%ymm13 # 6f0c <_sk_clut_4D_hsw+0xabe>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,104,67,0,0 // vbroadcastss 0x4368(%rip),%ymm13 # 6f18 <_sk_clut_4D_hsw+0xac2>
+ .byte 196,98,125,24,45,104,67,0,0 // vbroadcastss 0x4368(%rip),%ymm13 # 6f10 <_sk_clut_4D_hsw+0xac2>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,94,67,0,0 // vbroadcastss 0x435e(%rip),%ymm11 # 6f1c <_sk_clut_4D_hsw+0xac6>
+ .byte 196,98,125,24,29,94,67,0,0 // vbroadcastss 0x435e(%rip),%ymm11 # 6f14 <_sk_clut_4D_hsw+0xac6>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,84,67,0,0 // vbroadcastss 0x4354(%rip),%ymm12 # 6f20 <_sk_clut_4D_hsw+0xaca>
+ .byte 196,98,125,24,37,84,67,0,0 // vbroadcastss 0x4354(%rip),%ymm12 # 6f18 <_sk_clut_4D_hsw+0xaca>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,74,67,0,0 // vbroadcastss 0x434a(%rip),%ymm12 # 6f24 <_sk_clut_4D_hsw+0xace>
+ .byte 196,98,125,24,37,74,67,0,0 // vbroadcastss 0x434a(%rip),%ymm12 # 6f1c <_sk_clut_4D_hsw+0xace>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,43,67,0,0 // vbroadcastss 0x432b(%rip),%ymm11 # 6f28 <_sk_clut_4D_hsw+0xad2>
+ .byte 196,98,125,24,29,43,67,0,0 // vbroadcastss 0x432b(%rip),%ymm11 # 6f20 <_sk_clut_4D_hsw+0xad2>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,33,67,0,0 // vbroadcastss 0x4321(%rip),%ymm11 # 6f2c <_sk_clut_4D_hsw+0xad6>
+ .byte 196,98,125,24,29,33,67,0,0 // vbroadcastss 0x4321(%rip),%ymm11 # 6f24 <_sk_clut_4D_hsw+0xad6>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,23,67,0,0 // vbroadcastss 0x4317(%rip),%ymm3 # 6f30 <_sk_clut_4D_hsw+0xada>
+ .byte 196,226,125,24,29,23,67,0,0 // vbroadcastss 0x4317(%rip),%ymm3 # 6f28 <_sk_clut_4D_hsw+0xada>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,13,67,0,0 // vbroadcastss 0x430d(%rip),%ymm10 # 6f34 <_sk_clut_4D_hsw+0xade>
+ .byte 196,98,125,24,21,13,67,0,0 // vbroadcastss 0x430d(%rip),%ymm10 # 6f2c <_sk_clut_4D_hsw+0xade>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,0,67,0,0 // vbroadcastss 0x4300(%rip),%ymm10 # 6f38 <_sk_clut_4D_hsw+0xae2>
+ .byte 196,98,125,24,21,0,67,0,0 // vbroadcastss 0x4300(%rip),%ymm10 # 6f30 <_sk_clut_4D_hsw+0xae2>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19301,7 +19318,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,215,66,0,0 // vbroadcastss 0x42d7(%rip),%ymm8 # 6f3c <_sk_clut_4D_hsw+0xae6>
+ .byte 196,98,125,24,5,215,66,0,0 // vbroadcastss 0x42d7(%rip),%ymm8 # 6f34 <_sk_clut_4D_hsw+0xae6>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19320,35 +19337,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,154,66,0,0 // vbroadcastss 0x429a(%rip),%ymm11 # 6f40 <_sk_clut_4D_hsw+0xaea>
- .byte 196,226,125,24,45,149,66,0,0 // vbroadcastss 0x4295(%rip),%ymm5 # 6f44 <_sk_clut_4D_hsw+0xaee>
+ .byte 196,98,125,24,29,154,66,0,0 // vbroadcastss 0x429a(%rip),%ymm11 # 6f38 <_sk_clut_4D_hsw+0xaea>
+ .byte 196,226,125,24,45,149,66,0,0 // vbroadcastss 0x4295(%rip),%ymm5 # 6f3c <_sk_clut_4D_hsw+0xaee>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,140,66,0,0 // vbroadcastss 0x428c(%rip),%ymm4 # 6f48 <_sk_clut_4D_hsw+0xaf2>
+ .byte 196,226,125,24,37,140,66,0,0 // vbroadcastss 0x428c(%rip),%ymm4 # 6f40 <_sk_clut_4D_hsw+0xaf2>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,131,66,0,0 // vbroadcastss 0x4283(%rip),%ymm13 # 6f4c <_sk_clut_4D_hsw+0xaf6>
+ .byte 196,98,125,24,45,131,66,0,0 // vbroadcastss 0x4283(%rip),%ymm13 # 6f44 <_sk_clut_4D_hsw+0xaf6>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,121,66,0,0 // vbroadcastss 0x4279(%rip),%ymm9 # 6f50 <_sk_clut_4D_hsw+0xafa>
+ .byte 196,98,125,24,13,121,66,0,0 // vbroadcastss 0x4279(%rip),%ymm9 # 6f48 <_sk_clut_4D_hsw+0xafa>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,93,66,0,0 // vbroadcastss 0x425d(%rip),%ymm11 # 6f54 <_sk_clut_4D_hsw+0xafe>
+ .byte 196,98,125,24,29,93,66,0,0 // vbroadcastss 0x425d(%rip),%ymm11 # 6f4c <_sk_clut_4D_hsw+0xafe>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,83,66,0,0 // vbroadcastss 0x4253(%rip),%ymm13 # 6f58 <_sk_clut_4D_hsw+0xb02>
+ .byte 196,98,125,24,45,83,66,0,0 // vbroadcastss 0x4253(%rip),%ymm13 # 6f50 <_sk_clut_4D_hsw+0xb02>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,47,66,0,0 // vbroadcastss 0x422f(%rip),%ymm2 # 6f5c <_sk_clut_4D_hsw+0xb06>
+ .byte 196,226,125,24,21,47,66,0,0 // vbroadcastss 0x422f(%rip),%ymm2 # 6f54 <_sk_clut_4D_hsw+0xb06>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,38,66,0,0 // vbroadcastss 0x4226(%rip),%ymm3 # 6f60 <_sk_clut_4D_hsw+0xb0a>
+ .byte 196,226,125,24,29,38,66,0,0 // vbroadcastss 0x4226(%rip),%ymm3 # 6f58 <_sk_clut_4D_hsw+0xb0a>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,28,66,0,0 // vbroadcastss 0x421c(%rip),%ymm1 # 6f64 <_sk_clut_4D_hsw+0xb0e>
+ .byte 196,226,125,24,13,28,66,0,0 // vbroadcastss 0x421c(%rip),%ymm1 # 6f5c <_sk_clut_4D_hsw+0xb0e>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,18,66,0,0 // vbroadcastss 0x4212(%rip),%ymm0 # 6f68 <_sk_clut_4D_hsw+0xb12>
+ .byte 196,226,125,24,5,18,66,0,0 // vbroadcastss 0x4212(%rip),%ymm0 # 6f60 <_sk_clut_4D_hsw+0xb12>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -19379,7 +19396,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,131,65,0,0 // vbroadcastss 0x4183(%rip),%ymm1 # 6f6c <_sk_clut_4D_hsw+0xb16>
+ .byte 196,226,125,24,13,131,65,0,0 // vbroadcastss 0x4183(%rip),%ymm1 # 6f64 <_sk_clut_4D_hsw+0xb16>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -19399,26 +19416,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,65,65,0,0 // vbroadcastss 0x4141(%rip),%ymm8 # 6f70 <_sk_clut_4D_hsw+0xb1a>
- .byte 196,98,125,24,13,60,65,0,0 // vbroadcastss 0x413c(%rip),%ymm9 # 6f74 <_sk_clut_4D_hsw+0xb1e>
- .byte 196,98,125,24,21,55,65,0,0 // vbroadcastss 0x4137(%rip),%ymm10 # 6f78 <_sk_clut_4D_hsw+0xb22>
+ .byte 196,98,125,24,5,65,65,0,0 // vbroadcastss 0x4141(%rip),%ymm8 # 6f68 <_sk_clut_4D_hsw+0xb1a>
+ .byte 196,98,125,24,13,60,65,0,0 // vbroadcastss 0x413c(%rip),%ymm9 # 6f6c <_sk_clut_4D_hsw+0xb1e>
+ .byte 196,98,125,24,21,55,65,0,0 // vbroadcastss 0x4137(%rip),%ymm10 # 6f70 <_sk_clut_4D_hsw+0xb22>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,40,65,0,0 // vbroadcastss 0x4128(%rip),%ymm9 # 6f7c <_sk_clut_4D_hsw+0xb26>
+ .byte 196,98,125,24,13,40,65,0,0 // vbroadcastss 0x4128(%rip),%ymm9 # 6f74 <_sk_clut_4D_hsw+0xb26>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,30,65,0,0 // vbroadcastss 0x411e(%rip),%ymm0 # 6f80 <_sk_clut_4D_hsw+0xb2a>
+ .byte 196,226,125,24,5,30,65,0,0 // vbroadcastss 0x411e(%rip),%ymm0 # 6f78 <_sk_clut_4D_hsw+0xb2a>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,21,65,0,0 // vbroadcastss 0x4115(%rip),%ymm8 # 6f84 <_sk_clut_4D_hsw+0xb2e>
+ .byte 196,98,125,24,5,21,65,0,0 // vbroadcastss 0x4115(%rip),%ymm8 # 6f7c <_sk_clut_4D_hsw+0xb2e>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,11,65,0,0 // vbroadcastss 0x410b(%rip),%ymm9 # 6f88 <_sk_clut_4D_hsw+0xb32>
+ .byte 196,98,125,24,13,11,65,0,0 // vbroadcastss 0x410b(%rip),%ymm9 # 6f80 <_sk_clut_4D_hsw+0xb32>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,248,64,0,0 // vbroadcastss 0x40f8(%rip),%ymm2 # 6f8c <_sk_clut_4D_hsw+0xb36>
+ .byte 196,226,125,24,21,248,64,0,0 // vbroadcastss 0x40f8(%rip),%ymm2 # 6f84 <_sk_clut_4D_hsw+0xb36>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,238,64,0,0 // vbroadcastss 0x40ee(%rip),%ymm11 # 6f90 <_sk_clut_4D_hsw+0xb3a>
+ .byte 196,98,125,24,29,238,64,0,0 // vbroadcastss 0x40ee(%rip),%ymm11 # 6f88 <_sk_clut_4D_hsw+0xb3a>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,228,64,0,0 // vbroadcastss 0x40e4(%rip),%ymm12 # 6f94 <_sk_clut_4D_hsw+0xb3e>
+ .byte 196,98,125,24,37,228,64,0,0 // vbroadcastss 0x40e4(%rip),%ymm12 # 6f8c <_sk_clut_4D_hsw+0xb3e>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19433,9 +19450,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,153,64,0,0 // vbroadcastss 0x4099(%rip),%ymm0 # 6f98 <_sk_clut_4D_hsw+0xb42>
+ .byte 196,226,125,24,5,153,64,0,0 // vbroadcastss 0x4099(%rip),%ymm0 # 6f90 <_sk_clut_4D_hsw+0xb42>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,144,64,0,0 // vbroadcastss 0x4090(%rip),%ymm8 # 6f9c <_sk_clut_4D_hsw+0xb46>
+ .byte 196,98,125,24,5,144,64,0,0 // vbroadcastss 0x4090(%rip),%ymm8 # 6f94 <_sk_clut_4D_hsw+0xb46>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19452,12 +19469,12 @@ _sk_load_a8_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,53 // jne 2f63 <_sk_load_a8_hsw+0x4e>
+ .byte 117,53 // jne 2f5b <_sk_load_a8_hsw+0x4e>
.byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0
- .byte 197,249,219,5,4,70,0,0 // vpand 0x4604(%rip),%xmm0,%xmm0 # 7540 <_sk_clut_4D_hsw+0x10ea>
+ .byte 197,249,219,5,12,70,0,0 // vpand 0x460c(%rip),%xmm0,%xmm0 # 7540 <_sk_clut_4D_hsw+0x10f2>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,82,64,0,0 // vbroadcastss 0x4052(%rip),%ymm1 # 6fa0 <_sk_clut_4D_hsw+0xb4a>
+ .byte 196,226,125,24,13,82,64,0,0 // vbroadcastss 0x4052(%rip),%ymm1 # 6f98 <_sk_clut_4D_hsw+0xb4a>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19470,15 +19487,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,189 // ja 2f34 <_sk_load_a8_hsw+0x1f>
+ .byte 119,189 // ja 2f2c <_sk_load_a8_hsw+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 2ffc <_sk_load_a8_hsw+0xe7>
+ .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 2ff4 <_sk_load_a8_hsw+0xe7>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,158 // jmp 2f34 <_sk_load_a8_hsw+0x1f>
+ .byte 235,158 // jmp 2f2c <_sk_load_a8_hsw+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19486,7 +19503,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,118,255,255,255 // jmpq 2f34 <_sk_load_a8_hsw+0x1f>
+ .byte 233,118,255,255,255 // jmpq 2f2c <_sk_load_a8_hsw+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19497,7 +19514,7 @@ _sk_load_a8_hsw:
.byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,59,255,255,255 // jmpq 2f34 <_sk_load_a8_hsw+0x1f>
+ .byte 233,59,255,255,255 // jmpq 2f2c <_sk_load_a8_hsw+0x1f>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19531,12 +19548,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,53 // jne 3066 <_sk_load_a8_dst_hsw+0x4e>
+ .byte 117,53 // jne 305e <_sk_load_a8_dst_hsw+0x4e>
.byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4
- .byte 197,217,219,37,17,69,0,0 // vpand 0x4511(%rip),%xmm4,%xmm4 # 7550 <_sk_clut_4D_hsw+0x10fa>
+ .byte 197,217,219,37,25,69,0,0 // vpand 0x4519(%rip),%xmm4,%xmm4 # 7550 <_sk_clut_4D_hsw+0x1102>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,83,63,0,0 // vbroadcastss 0x3f53(%rip),%ymm5 # 6fa4 <_sk_clut_4D_hsw+0xb4e>
+ .byte 196,226,125,24,45,83,63,0,0 // vbroadcastss 0x3f53(%rip),%ymm5 # 6f9c <_sk_clut_4D_hsw+0xb4e>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19549,15 +19566,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,189 // ja 3037 <_sk_load_a8_dst_hsw+0x1f>
+ .byte 119,189 // ja 302f <_sk_load_a8_dst_hsw+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,119,0,0,0 // lea 0x77(%rip),%r11 # 30fc <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,29,119,0,0,0 // lea 0x77(%rip),%r11 # 30f4 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,158 // jmp 3037 <_sk_load_a8_dst_hsw+0x1f>
+ .byte 235,158 // jmp 302f <_sk_load_a8_dst_hsw+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19565,7 +19582,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,118,255,255,255 // jmpq 3037 <_sk_load_a8_dst_hsw+0x1f>
+ .byte 233,118,255,255,255 // jmpq 302f <_sk_load_a8_dst_hsw+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19576,7 +19593,7 @@ _sk_load_a8_dst_hsw:
.byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,59,255,255,255 // jmpq 3037 <_sk_load_a8_dst_hsw+0x1f>
+ .byte 233,59,255,255,255 // jmpq 302f <_sk_load_a8_dst_hsw+0x1f>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -19637,7 +19654,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,218,61,0,0 // vbroadcastss 0x3dda(%rip),%ymm1 # 6fa8 <_sk_clut_4D_hsw+0xb52>
+ .byte 196,226,125,24,13,218,61,0,0 // vbroadcastss 0x3dda(%rip),%ymm1 # 6fa0 <_sk_clut_4D_hsw+0xb52>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19656,14 +19673,14 @@ _sk_store_a8_hsw:
.byte 77,15,175,202 // imul %r10,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,173,61,0,0 // vbroadcastss 0x3dad(%rip),%ymm8 # 6fac <_sk_clut_4D_hsw+0xb56>
+ .byte 196,98,125,24,5,173,61,0,0 // vbroadcastss 0x3dad(%rip),%ymm8 # 6fa4 <_sk_clut_4D_hsw+0xb56>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 3229 <_sk_store_a8_hsw+0x47>
+ .byte 117,11 // jne 3221 <_sk_store_a8_hsw+0x47>
.byte 196,65,123,17,4,25 // vmovsd %xmm8,(%r9,%rbx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -19672,25 +19689,25 @@ _sk_store_a8_hsw:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 3224 <_sk_store_a8_hsw+0x42>
+ .byte 119,235 // ja 321c <_sk_store_a8_hsw+0x42>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,87,0,0,0 // lea 0x57(%rip),%r11 # 32a0 <_sk_store_a8_hsw+0xbe>
+ .byte 76,141,29,87,0,0,0 // lea 0x57(%rip),%r11 # 3298 <_sk_store_a8_hsw+0xbe>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,25,0 // vpextrb $0x0,%xmm8,(%r9,%rbx,1)
- .byte 235,201 // jmp 3224 <_sk_store_a8_hsw+0x42>
+ .byte 235,201 // jmp 321c <_sk_store_a8_hsw+0x42>
.byte 196,67,121,20,68,25,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rbx,1)
- .byte 196,98,57,0,5,244,66,0,0 // vpshufb 0x42f4(%rip),%xmm8,%xmm8 # 7560 <_sk_clut_4D_hsw+0x110a>
+ .byte 196,98,57,0,5,252,66,0,0 // vpshufb 0x42fc(%rip),%xmm8,%xmm8 # 7560 <_sk_clut_4D_hsw+0x1112>
.byte 196,67,121,21,4,25,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,1)
- .byte 235,175 // jmp 3224 <_sk_store_a8_hsw+0x42>
+ .byte 235,175 // jmp 321c <_sk_store_a8_hsw+0x42>
.byte 196,67,121,20,68,25,6,12 // vpextrb $0xc,%xmm8,0x6(%r9,%rbx,1)
.byte 196,67,121,20,68,25,5,10 // vpextrb $0xa,%xmm8,0x5(%r9,%rbx,1)
.byte 196,67,121,20,68,25,4,8 // vpextrb $0x8,%xmm8,0x4(%r9,%rbx,1)
- .byte 196,98,57,0,5,218,66,0,0 // vpshufb 0x42da(%rip),%xmm8,%xmm8 # 7570 <_sk_clut_4D_hsw+0x111a>
+ .byte 196,98,57,0,5,226,66,0,0 // vpshufb 0x42e2(%rip),%xmm8,%xmm8 # 7570 <_sk_clut_4D_hsw+0x1122>
.byte 196,65,121,126,4,25 // vmovd %xmm8,(%r9,%rbx,1)
- .byte 235,134 // jmp 3224 <_sk_store_a8_hsw+0x42>
+ .byte 235,134 // jmp 321c <_sk_store_a8_hsw+0x42>
.byte 102,144 // xchg %ax,%ax
.byte 178,255 // mov $0xff,%dl
.byte 255 // (bad)
@@ -19724,15 +19741,15 @@ _sk_load_g8_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,58 // jne 330f <_sk_load_g8_hsw+0x53>
+ .byte 117,58 // jne 3307 <_sk_load_g8_hsw+0x53>
.byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0
- .byte 197,249,219,5,157,66,0,0 // vpand 0x429d(%rip),%xmm0,%xmm0 # 7580 <_sk_clut_4D_hsw+0x112a>
+ .byte 197,249,219,5,165,66,0,0 // vpand 0x42a5(%rip),%xmm0,%xmm0 # 7580 <_sk_clut_4D_hsw+0x1132>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,187,60,0,0 // vbroadcastss 0x3cbb(%rip),%ymm1 # 6fb0 <_sk_clut_4D_hsw+0xb5a>
+ .byte 196,226,125,24,13,187,60,0,0 // vbroadcastss 0x3cbb(%rip),%ymm1 # 6fa8 <_sk_clut_4D_hsw+0xb5a>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,176,60,0,0 // vbroadcastss 0x3cb0(%rip),%ymm3 # 6fb4 <_sk_clut_4D_hsw+0xb5e>
+ .byte 196,226,125,24,29,176,60,0,0 // vbroadcastss 0x3cb0(%rip),%ymm3 # 6fac <_sk_clut_4D_hsw+0xb5e>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -19742,15 +19759,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,184 // ja 32db <_sk_load_g8_hsw+0x1f>
+ .byte 119,184 // ja 32d3 <_sk_load_g8_hsw+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 33a8 <_sk_load_g8_hsw+0xec>
+ .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 33a0 <_sk_load_g8_hsw+0xec>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,153 // jmp 32db <_sk_load_g8_hsw+0x1f>
+ .byte 235,153 // jmp 32d3 <_sk_load_g8_hsw+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19758,7 +19775,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,113,255,255,255 // jmpq 32db <_sk_load_g8_hsw+0x1f>
+ .byte 233,113,255,255,255 // jmpq 32d3 <_sk_load_g8_hsw+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19769,7 +19786,7 @@ _sk_load_g8_hsw:
.byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,54,255,255,255 // jmpq 32db <_sk_load_g8_hsw+0x1f>
+ .byte 233,54,255,255,255 // jmpq 32d3 <_sk_load_g8_hsw+0x1f>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19803,15 +19820,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,58 // jne 3417 <_sk_load_g8_dst_hsw+0x53>
+ .byte 117,58 // jne 340f <_sk_load_g8_dst_hsw+0x53>
.byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4
- .byte 197,217,219,37,165,65,0,0 // vpand 0x41a5(%rip),%xmm4,%xmm4 # 7590 <_sk_clut_4D_hsw+0x113a>
+ .byte 197,217,219,37,173,65,0,0 // vpand 0x41ad(%rip),%xmm4,%xmm4 # 7590 <_sk_clut_4D_hsw+0x1142>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,187,59,0,0 // vbroadcastss 0x3bbb(%rip),%ymm5 # 6fb8 <_sk_clut_4D_hsw+0xb62>
+ .byte 196,226,125,24,45,187,59,0,0 // vbroadcastss 0x3bbb(%rip),%ymm5 # 6fb0 <_sk_clut_4D_hsw+0xb62>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,176,59,0,0 // vbroadcastss 0x3bb0(%rip),%ymm7 # 6fbc <_sk_clut_4D_hsw+0xb66>
+ .byte 196,226,125,24,61,176,59,0,0 // vbroadcastss 0x3bb0(%rip),%ymm7 # 6fb4 <_sk_clut_4D_hsw+0xb66>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 91 // pop %rbx
@@ -19821,15 +19838,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,184 // ja 33e3 <_sk_load_g8_dst_hsw+0x1f>
+ .byte 119,184 // ja 33db <_sk_load_g8_dst_hsw+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 34b0 <_sk_load_g8_dst_hsw+0xec>
+ .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 34a8 <_sk_load_g8_dst_hsw+0xec>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,153 // jmp 33e3 <_sk_load_g8_dst_hsw+0x1f>
+ .byte 235,153 // jmp 33db <_sk_load_g8_dst_hsw+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19837,7 +19854,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,113,255,255,255 // jmpq 33e3 <_sk_load_g8_dst_hsw+0x1f>
+ .byte 233,113,255,255,255 // jmpq 33db <_sk_load_g8_dst_hsw+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19848,7 +19865,7 @@ _sk_load_g8_dst_hsw:
.byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,54,255,255,255 // jmpq 33e3 <_sk_load_g8_dst_hsw+0x1f>
+ .byte 233,54,255,255,255 // jmpq 33db <_sk_load_g8_dst_hsw+0x1f>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19910,10 +19927,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,62,58,0,0 // vbroadcastss 0x3a3e(%rip),%ymm1 # 6fc0 <_sk_clut_4D_hsw+0xb6a>
+ .byte 196,226,125,24,13,62,58,0,0 // vbroadcastss 0x3a3e(%rip),%ymm1 # 6fb8 <_sk_clut_4D_hsw+0xb6a>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,51,58,0,0 // vbroadcastss 0x3a33(%rip),%ymm3 # 6fc4 <_sk_clut_4D_hsw+0xb6e>
+ .byte 196,226,125,24,29,51,58,0,0 // vbroadcastss 0x3a33(%rip),%ymm3 # 6fbc <_sk_clut_4D_hsw+0xb6e>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19931,26 +19948,26 @@ _sk_load_565_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,115 // jne 362a <_sk_load_565_hsw+0x8f>
+ .byte 117,115 // jne 3622 <_sk_load_565_hsw+0x8f>
.byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,253,57,0,0 // vpbroadcastd 0x39fd(%rip),%ymm0 # 6fc8 <_sk_clut_4D_hsw+0xb72>
+ .byte 196,226,125,88,5,253,57,0,0 // vpbroadcastd 0x39fd(%rip),%ymm0 # 6fc0 <_sk_clut_4D_hsw+0xb72>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,240,57,0,0 // vbroadcastss 0x39f0(%rip),%ymm1 # 6fcc <_sk_clut_4D_hsw+0xb76>
+ .byte 196,226,125,24,13,240,57,0,0 // vbroadcastss 0x39f0(%rip),%ymm1 # 6fc4 <_sk_clut_4D_hsw+0xb76>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,231,57,0,0 // vpbroadcastd 0x39e7(%rip),%ymm1 # 6fd0 <_sk_clut_4D_hsw+0xb7a>
+ .byte 196,226,125,88,13,231,57,0,0 // vpbroadcastd 0x39e7(%rip),%ymm1 # 6fc8 <_sk_clut_4D_hsw+0xb7a>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,218,57,0,0 // vbroadcastss 0x39da(%rip),%ymm3 # 6fd4 <_sk_clut_4D_hsw+0xb7e>
+ .byte 196,226,125,24,29,218,57,0,0 // vbroadcastss 0x39da(%rip),%ymm3 # 6fcc <_sk_clut_4D_hsw+0xb7e>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,209,57,0,0 // vpbroadcastd 0x39d1(%rip),%ymm3 # 6fd8 <_sk_clut_4D_hsw+0xb82>
+ .byte 196,226,125,88,29,209,57,0,0 // vpbroadcastd 0x39d1(%rip),%ymm3 # 6fd0 <_sk_clut_4D_hsw+0xb82>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,196,57,0,0 // vbroadcastss 0x39c4(%rip),%ymm3 # 6fdc <_sk_clut_4D_hsw+0xb86>
+ .byte 196,226,125,24,29,196,57,0,0 // vbroadcastss 0x39c4(%rip),%ymm3 # 6fd4 <_sk_clut_4D_hsw+0xb86>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,185,57,0,0 // vbroadcastss 0x39b9(%rip),%ymm3 # 6fe0 <_sk_clut_4D_hsw+0xb8a>
+ .byte 196,226,125,24,29,185,57,0,0 // vbroadcastss 0x39b9(%rip),%ymm3 # 6fd8 <_sk_clut_4D_hsw+0xb8a>
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
@@ -19958,27 +19975,27 @@ _sk_load_565_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,123,255,255,255 // ja 35bd <_sk_load_565_hsw+0x22>
+ .byte 15,135,123,255,255,255 // ja 35b5 <_sk_load_565_hsw+0x22>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 36b0 <_sk_load_565_hsw+0x115>
+ .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 36a8 <_sk_load_565_hsw+0x115>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,89,255,255,255 // jmpq 35bd <_sk_load_565_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq 35b5 <_sk_load_565_hsw+0x22>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,60,255,255,255 // jmpq 35bd <_sk_load_565_hsw+0x22>
+ .byte 233,60,255,255,255 // jmpq 35b5 <_sk_load_565_hsw+0x22>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,15,255,255,255 // jmpq 35bd <_sk_load_565_hsw+0x22>
+ .byte 233,15,255,255,255 // jmpq 35b5 <_sk_load_565_hsw+0x22>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20012,26 +20029,26 @@ _sk_load_565_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,115 // jne 375b <_sk_load_565_dst_hsw+0x8f>
+ .byte 117,115 // jne 3753 <_sk_load_565_dst_hsw+0x8f>
.byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,232,56,0,0 // vpbroadcastd 0x38e8(%rip),%ymm4 # 6fe4 <_sk_clut_4D_hsw+0xb8e>
+ .byte 196,226,125,88,37,232,56,0,0 // vpbroadcastd 0x38e8(%rip),%ymm4 # 6fdc <_sk_clut_4D_hsw+0xb8e>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,219,56,0,0 // vbroadcastss 0x38db(%rip),%ymm5 # 6fe8 <_sk_clut_4D_hsw+0xb92>
+ .byte 196,226,125,24,45,219,56,0,0 // vbroadcastss 0x38db(%rip),%ymm5 # 6fe0 <_sk_clut_4D_hsw+0xb92>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,210,56,0,0 // vpbroadcastd 0x38d2(%rip),%ymm5 # 6fec <_sk_clut_4D_hsw+0xb96>
+ .byte 196,226,125,88,45,210,56,0,0 // vpbroadcastd 0x38d2(%rip),%ymm5 # 6fe4 <_sk_clut_4D_hsw+0xb96>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,197,56,0,0 // vbroadcastss 0x38c5(%rip),%ymm7 # 6ff0 <_sk_clut_4D_hsw+0xb9a>
+ .byte 196,226,125,24,61,197,56,0,0 // vbroadcastss 0x38c5(%rip),%ymm7 # 6fe8 <_sk_clut_4D_hsw+0xb9a>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,188,56,0,0 // vpbroadcastd 0x38bc(%rip),%ymm7 # 6ff4 <_sk_clut_4D_hsw+0xb9e>
+ .byte 196,226,125,88,61,188,56,0,0 // vpbroadcastd 0x38bc(%rip),%ymm7 # 6fec <_sk_clut_4D_hsw+0xb9e>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,175,56,0,0 // vbroadcastss 0x38af(%rip),%ymm7 # 6ff8 <_sk_clut_4D_hsw+0xba2>
+ .byte 196,226,125,24,61,175,56,0,0 // vbroadcastss 0x38af(%rip),%ymm7 # 6ff0 <_sk_clut_4D_hsw+0xba2>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,164,56,0,0 // vbroadcastss 0x38a4(%rip),%ymm7 # 6ffc <_sk_clut_4D_hsw+0xba6>
+ .byte 196,226,125,24,61,164,56,0,0 // vbroadcastss 0x38a4(%rip),%ymm7 # 6ff4 <_sk_clut_4D_hsw+0xba6>
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
@@ -20039,27 +20056,27 @@ _sk_load_565_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,123,255,255,255 // ja 36ee <_sk_load_565_dst_hsw+0x22>
+ .byte 15,135,123,255,255,255 // ja 36e6 <_sk_load_565_dst_hsw+0x22>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 37e0 <_sk_load_565_dst_hsw+0x114>
+ .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 37d8 <_sk_load_565_dst_hsw+0x114>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,89,255,255,255 // jmpq 36ee <_sk_load_565_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq 36e6 <_sk_load_565_dst_hsw+0x22>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,60,255,255,255 // jmpq 36ee <_sk_load_565_dst_hsw+0x22>
+ .byte 233,60,255,255,255 // jmpq 36e6 <_sk_load_565_dst_hsw+0x22>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,15,255,255,255 // jmpq 36ee <_sk_load_565_dst_hsw+0x22>
+ .byte 233,15,255,255,255 // jmpq 36e6 <_sk_load_565_dst_hsw+0x22>
.byte 144 // nop
.byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20122,23 +20139,23 @@ _sk_gather_565_hsw:
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,83,55,0,0 // vpbroadcastd 0x3753(%rip),%ymm0 # 7000 <_sk_clut_4D_hsw+0xbaa>
+ .byte 196,226,125,88,5,83,55,0,0 // vpbroadcastd 0x3753(%rip),%ymm0 # 6ff8 <_sk_clut_4D_hsw+0xbaa>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,70,55,0,0 // vbroadcastss 0x3746(%rip),%ymm1 # 7004 <_sk_clut_4D_hsw+0xbae>
+ .byte 196,226,125,24,13,70,55,0,0 // vbroadcastss 0x3746(%rip),%ymm1 # 6ffc <_sk_clut_4D_hsw+0xbae>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,61,55,0,0 // vpbroadcastd 0x373d(%rip),%ymm1 # 7008 <_sk_clut_4D_hsw+0xbb2>
+ .byte 196,226,125,88,13,61,55,0,0 // vpbroadcastd 0x373d(%rip),%ymm1 # 7000 <_sk_clut_4D_hsw+0xbb2>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,48,55,0,0 // vbroadcastss 0x3730(%rip),%ymm3 # 700c <_sk_clut_4D_hsw+0xbb6>
+ .byte 196,226,125,24,29,48,55,0,0 // vbroadcastss 0x3730(%rip),%ymm3 # 7004 <_sk_clut_4D_hsw+0xbb6>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,39,55,0,0 // vpbroadcastd 0x3727(%rip),%ymm3 # 7010 <_sk_clut_4D_hsw+0xbba>
+ .byte 196,226,125,88,29,39,55,0,0 // vpbroadcastd 0x3727(%rip),%ymm3 # 7008 <_sk_clut_4D_hsw+0xbba>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,26,55,0,0 // vbroadcastss 0x371a(%rip),%ymm3 # 7014 <_sk_clut_4D_hsw+0xbbe>
+ .byte 196,226,125,24,29,26,55,0,0 // vbroadcastss 0x371a(%rip),%ymm3 # 700c <_sk_clut_4D_hsw+0xbbe>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,15,55,0,0 // vbroadcastss 0x370f(%rip),%ymm3 # 7018 <_sk_clut_4D_hsw+0xbc2>
+ .byte 196,226,125,24,29,15,55,0,0 // vbroadcastss 0x370f(%rip),%ymm3 # 7010 <_sk_clut_4D_hsw+0xbc2>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_hsw
@@ -20153,11 +20170,11 @@ _sk_store_565_hsw:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,241,54,0,0 // vbroadcastss 0x36f1(%rip),%ymm8 # 701c <_sk_clut_4D_hsw+0xbc6>
+ .byte 196,98,125,24,5,241,54,0,0 // vbroadcastss 0x36f1(%rip),%ymm8 # 7014 <_sk_clut_4D_hsw+0xbc6>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,220,54,0,0 // vbroadcastss 0x36dc(%rip),%ymm10 # 7020 <_sk_clut_4D_hsw+0xbca>
+ .byte 196,98,125,24,21,220,54,0,0 // vbroadcastss 0x36dc(%rip),%ymm10 # 7018 <_sk_clut_4D_hsw+0xbca>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -20168,7 +20185,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 3983 <_sk_store_565_hsw+0x78>
+ .byte 117,11 // jne 397b <_sk_store_565_hsw+0x78>
.byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20177,22 +20194,22 @@ _sk_store_565_hsw:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 397e <_sk_store_565_hsw+0x73>
+ .byte 119,235 // ja 3976 <_sk_store_565_hsw+0x73>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,66,0,0,0 // lea 0x42(%rip),%r11 # 39e0 <_sk_store_565_hsw+0xd5>
+ .byte 76,141,29,66,0,0,0 // lea 0x42(%rip),%r11 # 39d8 <_sk_store_565_hsw+0xd5>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2)
- .byte 235,206 // jmp 397e <_sk_store_565_hsw+0x73>
+ .byte 235,206 // jmp 3976 <_sk_store_565_hsw+0x73>
.byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2)
.byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2)
- .byte 235,190 // jmp 397e <_sk_store_565_hsw+0x73>
+ .byte 235,190 // jmp 3976 <_sk_store_565_hsw+0x73>
.byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2)
.byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2)
.byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2)
.byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2)
- .byte 235,158 // jmp 397e <_sk_store_565_hsw+0x73>
+ .byte 235,158 // jmp 3976 <_sk_store_565_hsw+0x73>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20210,7 +20227,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10039f8 <_sk_clut_4D_hsw+0xffffffffe0ffd5a2>
+ .byte 232,255,255,255,224 // callq ffffffffe10039f0 <_sk_clut_4D_hsw+0xffffffffe0ffd5a2>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20228,28 +20245,28 @@ _sk_load_4444_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,139,0,0,0 // jne 3aa7 <_sk_load_4444_hsw+0xab>
+ .byte 15,133,139,0,0,0 // jne 3a9f <_sk_load_4444_hsw+0xab>
.byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,244,53,0,0 // vpbroadcastd 0x35f4(%rip),%ymm0 # 7024 <_sk_clut_4D_hsw+0xbce>
+ .byte 196,226,125,88,5,244,53,0,0 // vpbroadcastd 0x35f4(%rip),%ymm0 # 701c <_sk_clut_4D_hsw+0xbce>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,231,53,0,0 // vbroadcastss 0x35e7(%rip),%ymm1 # 7028 <_sk_clut_4D_hsw+0xbd2>
+ .byte 196,226,125,24,13,231,53,0,0 // vbroadcastss 0x35e7(%rip),%ymm1 # 7020 <_sk_clut_4D_hsw+0xbd2>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,222,53,0,0 // vpbroadcastd 0x35de(%rip),%ymm1 # 702c <_sk_clut_4D_hsw+0xbd6>
+ .byte 196,226,125,88,13,222,53,0,0 // vpbroadcastd 0x35de(%rip),%ymm1 # 7024 <_sk_clut_4D_hsw+0xbd6>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,209,53,0,0 // vbroadcastss 0x35d1(%rip),%ymm2 # 7030 <_sk_clut_4D_hsw+0xbda>
+ .byte 196,226,125,24,21,209,53,0,0 // vbroadcastss 0x35d1(%rip),%ymm2 # 7028 <_sk_clut_4D_hsw+0xbda>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,200,53,0,0 // vpbroadcastd 0x35c8(%rip),%ymm2 # 7034 <_sk_clut_4D_hsw+0xbde>
+ .byte 196,226,125,88,21,200,53,0,0 // vpbroadcastd 0x35c8(%rip),%ymm2 # 702c <_sk_clut_4D_hsw+0xbde>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,187,53,0,0 // vbroadcastss 0x35bb(%rip),%ymm8 # 7038 <_sk_clut_4D_hsw+0xbe2>
+ .byte 196,98,125,24,5,187,53,0,0 // vbroadcastss 0x35bb(%rip),%ymm8 # 7030 <_sk_clut_4D_hsw+0xbe2>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,177,53,0,0 // vpbroadcastd 0x35b1(%rip),%ymm8 # 703c <_sk_clut_4D_hsw+0xbe6>
+ .byte 196,98,125,88,5,177,53,0,0 // vpbroadcastd 0x35b1(%rip),%ymm8 # 7034 <_sk_clut_4D_hsw+0xbe6>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,163,53,0,0 // vbroadcastss 0x35a3(%rip),%ymm8 # 7040 <_sk_clut_4D_hsw+0xbea>
+ .byte 196,98,125,24,5,163,53,0,0 // vbroadcastss 0x35a3(%rip),%ymm8 # 7038 <_sk_clut_4D_hsw+0xbea>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20259,27 +20276,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,99,255,255,255 // ja 3a22 <_sk_load_4444_hsw+0x26>
+ .byte 15,135,99,255,255,255 // ja 3a1a <_sk_load_4444_hsw+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3b2c <_sk_load_4444_hsw+0x130>
+ .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3b24 <_sk_load_4444_hsw+0x130>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,65,255,255,255 // jmpq 3a22 <_sk_load_4444_hsw+0x26>
+ .byte 233,65,255,255,255 // jmpq 3a1a <_sk_load_4444_hsw+0x26>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,36,255,255,255 // jmpq 3a22 <_sk_load_4444_hsw+0x26>
+ .byte 233,36,255,255,255 // jmpq 3a1a <_sk_load_4444_hsw+0x26>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,247,254,255,255 // jmpq 3a22 <_sk_load_4444_hsw+0x26>
+ .byte 233,247,254,255,255 // jmpq 3a1a <_sk_load_4444_hsw+0x26>
.byte 144 // nop
.byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20314,28 +20331,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,139,0,0,0 // jne 3bf3 <_sk_load_4444_dst_hsw+0xab>
+ .byte 15,133,139,0,0,0 // jne 3beb <_sk_load_4444_dst_hsw+0xab>
.byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,200,52,0,0 // vpbroadcastd 0x34c8(%rip),%ymm4 # 7044 <_sk_clut_4D_hsw+0xbee>
+ .byte 196,226,125,88,37,200,52,0,0 // vpbroadcastd 0x34c8(%rip),%ymm4 # 703c <_sk_clut_4D_hsw+0xbee>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,187,52,0,0 // vbroadcastss 0x34bb(%rip),%ymm5 # 7048 <_sk_clut_4D_hsw+0xbf2>
+ .byte 196,226,125,24,45,187,52,0,0 // vbroadcastss 0x34bb(%rip),%ymm5 # 7040 <_sk_clut_4D_hsw+0xbf2>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,178,52,0,0 // vpbroadcastd 0x34b2(%rip),%ymm5 # 704c <_sk_clut_4D_hsw+0xbf6>
+ .byte 196,226,125,88,45,178,52,0,0 // vpbroadcastd 0x34b2(%rip),%ymm5 # 7044 <_sk_clut_4D_hsw+0xbf6>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,165,52,0,0 // vbroadcastss 0x34a5(%rip),%ymm6 # 7050 <_sk_clut_4D_hsw+0xbfa>
+ .byte 196,226,125,24,53,165,52,0,0 // vbroadcastss 0x34a5(%rip),%ymm6 # 7048 <_sk_clut_4D_hsw+0xbfa>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,156,52,0,0 // vpbroadcastd 0x349c(%rip),%ymm6 # 7054 <_sk_clut_4D_hsw+0xbfe>
+ .byte 196,226,125,88,53,156,52,0,0 // vpbroadcastd 0x349c(%rip),%ymm6 # 704c <_sk_clut_4D_hsw+0xbfe>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,143,52,0,0 // vbroadcastss 0x348f(%rip),%ymm8 # 7058 <_sk_clut_4D_hsw+0xc02>
+ .byte 196,98,125,24,5,143,52,0,0 // vbroadcastss 0x348f(%rip),%ymm8 # 7050 <_sk_clut_4D_hsw+0xc02>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,133,52,0,0 // vpbroadcastd 0x3485(%rip),%ymm8 # 705c <_sk_clut_4D_hsw+0xc06>
+ .byte 196,98,125,88,5,133,52,0,0 // vpbroadcastd 0x3485(%rip),%ymm8 # 7054 <_sk_clut_4D_hsw+0xc06>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,119,52,0,0 // vbroadcastss 0x3477(%rip),%ymm8 # 7060 <_sk_clut_4D_hsw+0xc0a>
+ .byte 196,98,125,24,5,119,52,0,0 // vbroadcastss 0x3477(%rip),%ymm8 # 7058 <_sk_clut_4D_hsw+0xc0a>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20345,27 +20362,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,99,255,255,255 // ja 3b6e <_sk_load_4444_dst_hsw+0x26>
+ .byte 15,135,99,255,255,255 // ja 3b66 <_sk_load_4444_dst_hsw+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3c78 <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3c70 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,65,255,255,255 // jmpq 3b6e <_sk_load_4444_dst_hsw+0x26>
+ .byte 233,65,255,255,255 // jmpq 3b66 <_sk_load_4444_dst_hsw+0x26>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,36,255,255,255 // jmpq 3b6e <_sk_load_4444_dst_hsw+0x26>
+ .byte 233,36,255,255,255 // jmpq 3b66 <_sk_load_4444_dst_hsw+0x26>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,247,254,255,255 // jmpq 3b6e <_sk_load_4444_dst_hsw+0x26>
+ .byte 233,247,254,255,255 // jmpq 3b66 <_sk_load_4444_dst_hsw+0x26>
.byte 144 // nop
.byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20428,25 +20445,25 @@ _sk_gather_4444_hsw:
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,31,51,0,0 // vpbroadcastd 0x331f(%rip),%ymm0 # 7064 <_sk_clut_4D_hsw+0xc0e>
+ .byte 196,226,125,88,5,31,51,0,0 // vpbroadcastd 0x331f(%rip),%ymm0 # 705c <_sk_clut_4D_hsw+0xc0e>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,18,51,0,0 // vbroadcastss 0x3312(%rip),%ymm1 # 7068 <_sk_clut_4D_hsw+0xc12>
+ .byte 196,226,125,24,13,18,51,0,0 // vbroadcastss 0x3312(%rip),%ymm1 # 7060 <_sk_clut_4D_hsw+0xc12>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,9,51,0,0 // vpbroadcastd 0x3309(%rip),%ymm1 # 706c <_sk_clut_4D_hsw+0xc16>
+ .byte 196,226,125,88,13,9,51,0,0 // vpbroadcastd 0x3309(%rip),%ymm1 # 7064 <_sk_clut_4D_hsw+0xc16>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,252,50,0,0 // vbroadcastss 0x32fc(%rip),%ymm2 # 7070 <_sk_clut_4D_hsw+0xc1a>
+ .byte 196,226,125,24,21,252,50,0,0 // vbroadcastss 0x32fc(%rip),%ymm2 # 7068 <_sk_clut_4D_hsw+0xc1a>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,243,50,0,0 // vpbroadcastd 0x32f3(%rip),%ymm2 # 7074 <_sk_clut_4D_hsw+0xc1e>
+ .byte 196,226,125,88,21,243,50,0,0 // vpbroadcastd 0x32f3(%rip),%ymm2 # 706c <_sk_clut_4D_hsw+0xc1e>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,230,50,0,0 // vbroadcastss 0x32e6(%rip),%ymm8 # 7078 <_sk_clut_4D_hsw+0xc22>
+ .byte 196,98,125,24,5,230,50,0,0 // vbroadcastss 0x32e6(%rip),%ymm8 # 7070 <_sk_clut_4D_hsw+0xc22>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,220,50,0,0 // vpbroadcastd 0x32dc(%rip),%ymm8 # 707c <_sk_clut_4D_hsw+0xc26>
+ .byte 196,98,125,88,5,220,50,0,0 // vpbroadcastd 0x32dc(%rip),%ymm8 # 7074 <_sk_clut_4D_hsw+0xc26>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,206,50,0,0 // vbroadcastss 0x32ce(%rip),%ymm8 # 7080 <_sk_clut_4D_hsw+0xc2a>
+ .byte 196,98,125,24,5,206,50,0,0 // vbroadcastss 0x32ce(%rip),%ymm8 # 7078 <_sk_clut_4D_hsw+0xc2a>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20463,7 +20480,7 @@ _sk_store_4444_hsw:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,169,50,0,0 // vbroadcastss 0x32a9(%rip),%ymm8 # 7084 <_sk_clut_4D_hsw+0xc2e>
+ .byte 196,98,125,24,5,169,50,0,0 // vbroadcastss 0x32a9(%rip),%ymm8 # 707c <_sk_clut_4D_hsw+0xc2e>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -20481,7 +20498,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 3e3f <_sk_store_4444_hsw+0x84>
+ .byte 117,11 // jne 3e37 <_sk_store_4444_hsw+0x84>
.byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20490,22 +20507,22 @@ _sk_store_4444_hsw:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 3e3a <_sk_store_4444_hsw+0x7f>
+ .byte 119,235 // ja 3e32 <_sk_store_4444_hsw+0x7f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,66,0,0,0 // lea 0x42(%rip),%r11 # 3e9c <_sk_store_4444_hsw+0xe1>
+ .byte 76,141,29,66,0,0,0 // lea 0x42(%rip),%r11 # 3e94 <_sk_store_4444_hsw+0xe1>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2)
- .byte 235,206 // jmp 3e3a <_sk_store_4444_hsw+0x7f>
+ .byte 235,206 // jmp 3e32 <_sk_store_4444_hsw+0x7f>
.byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2)
.byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2)
- .byte 235,190 // jmp 3e3a <_sk_store_4444_hsw+0x7f>
+ .byte 235,190 // jmp 3e32 <_sk_store_4444_hsw+0x7f>
.byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2)
.byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2)
.byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2)
.byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2)
- .byte 235,158 // jmp 3e3a <_sk_store_4444_hsw+0x7f>
+ .byte 235,158 // jmp 3e32 <_sk_store_4444_hsw+0x7f>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20523,7 +20540,7 @@ _sk_store_4444_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1003eb4 <_sk_clut_4D_hsw+0xffffffffe0ffda5e>
+ .byte 232,255,255,255,224 // callq ffffffffe1003eac <_sk_clut_4D_hsw+0xffffffffe0ffda5e>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20541,16 +20558,16 @@ _sk_load_8888_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,87 // jne 3f2c <_sk_load_8888_hsw+0x74>
+ .byte 117,87 // jne 3f24 <_sk_load_8888_hsw+0x74>
.byte 196,193,126,111,28,153 // vmovdqu (%r9,%rbx,4),%ymm3
- .byte 197,229,219,5,221,51,0,0 // vpand 0x33dd(%rip),%ymm3,%ymm0 # 72c0 <_sk_clut_4D_hsw+0xe6a>
+ .byte 197,229,219,5,229,51,0,0 // vpand 0x33e5(%rip),%ymm3,%ymm0 # 72c0 <_sk_clut_4D_hsw+0xe72>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,152,49,0,0 // vbroadcastss 0x3198(%rip),%ymm8 # 7088 <_sk_clut_4D_hsw+0xc32>
+ .byte 196,98,125,24,5,152,49,0,0 // vbroadcastss 0x3198(%rip),%ymm8 # 7080 <_sk_clut_4D_hsw+0xc32>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,226,51,0,0 // vpshufb 0x33e2(%rip),%ymm3,%ymm1 # 72e0 <_sk_clut_4D_hsw+0xe8a>
+ .byte 196,226,101,0,13,234,51,0,0 // vpshufb 0x33ea(%rip),%ymm3,%ymm1 # 72e0 <_sk_clut_4D_hsw+0xe92>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,240,51,0,0 // vpshufb 0x33f0(%rip),%ymm3,%ymm2 # 7300 <_sk_clut_4D_hsw+0xeaa>
+ .byte 196,226,101,0,21,248,51,0,0 // vpshufb 0x33f8(%rip),%ymm3,%ymm2 # 7300 <_sk_clut_4D_hsw+0xeb2>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -20564,21 +20581,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,155 // ja 3edb <_sk_load_8888_hsw+0x23>
+ .byte 119,155 // ja 3ed3 <_sk_load_8888_hsw+0x23>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 3fd8 <_sk_load_8888_hsw+0x120>
+ .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 3fd0 <_sk_load_8888_hsw+0x120>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,28,153 // vmovd (%r9,%rbx,4),%xmm3
- .byte 233,124,255,255,255 // jmpq 3edb <_sk_load_8888_hsw+0x23>
+ .byte 233,124,255,255,255 // jmpq 3ed3 <_sk_load_8888_hsw+0x23>
.byte 196,193,121,110,68,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,153 // vmovq (%r9,%rbx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,85,255,255,255 // jmpq 3edb <_sk_load_8888_hsw+0x23>
+ .byte 233,85,255,255,255 // jmpq 3ed3 <_sk_load_8888_hsw+0x23>
.byte 196,193,121,110,68,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -20591,9 +20608,9 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,153 // vmovdqu (%r9,%rbx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,6,255,255,255 // jmpq 3edb <_sk_load_8888_hsw+0x23>
+ .byte 233,6,255,255,255 // jmpq 3ed3 <_sk_load_8888_hsw+0x23>
.byte 15,31,0 // nopl (%rax)
- .byte 124,255 // jl 3fd9 <_sk_load_8888_hsw+0x121>
+ .byte 124,255 // jl 3fd1 <_sk_load_8888_hsw+0x121>
.byte 255 // (bad)
.byte 255,157,255,255,255,135 // lcall *-0x78000001(%rbp)
.byte 255 // (bad)
@@ -20627,16 +20644,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,87 // jne 4068 <_sk_load_8888_dst_hsw+0x74>
+ .byte 117,87 // jne 4060 <_sk_load_8888_dst_hsw+0x74>
.byte 196,193,126,111,60,153 // vmovdqu (%r9,%rbx,4),%ymm7
- .byte 197,197,219,37,1,51,0,0 // vpand 0x3301(%rip),%ymm7,%ymm4 # 7320 <_sk_clut_4D_hsw+0xeca>
+ .byte 197,197,219,37,9,51,0,0 // vpand 0x3309(%rip),%ymm7,%ymm4 # 7320 <_sk_clut_4D_hsw+0xed2>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,96,48,0,0 // vbroadcastss 0x3060(%rip),%ymm8 # 708c <_sk_clut_4D_hsw+0xc36>
+ .byte 196,98,125,24,5,96,48,0,0 // vbroadcastss 0x3060(%rip),%ymm8 # 7084 <_sk_clut_4D_hsw+0xc36>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,6,51,0,0 // vpshufb 0x3306(%rip),%ymm7,%ymm5 # 7340 <_sk_clut_4D_hsw+0xeea>
+ .byte 196,226,69,0,45,14,51,0,0 // vpshufb 0x330e(%rip),%ymm7,%ymm5 # 7340 <_sk_clut_4D_hsw+0xef2>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,20,51,0,0 // vpshufb 0x3314(%rip),%ymm7,%ymm6 # 7360 <_sk_clut_4D_hsw+0xf0a>
+ .byte 196,226,69,0,53,28,51,0,0 // vpshufb 0x331c(%rip),%ymm7,%ymm6 # 7360 <_sk_clut_4D_hsw+0xf12>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -20650,21 +20667,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,155 // ja 4017 <_sk_load_8888_dst_hsw+0x23>
+ .byte 119,155 // ja 400f <_sk_load_8888_dst_hsw+0x23>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 4114 <_sk_load_8888_dst_hsw+0x120>
+ .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 410c <_sk_load_8888_dst_hsw+0x120>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,153 // vmovd (%r9,%rbx,4),%xmm7
- .byte 233,124,255,255,255 // jmpq 4017 <_sk_load_8888_dst_hsw+0x23>
+ .byte 233,124,255,255,255 // jmpq 400f <_sk_load_8888_dst_hsw+0x23>
.byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,153 // vmovq (%r9,%rbx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,85,255,255,255 // jmpq 4017 <_sk_load_8888_dst_hsw+0x23>
+ .byte 233,85,255,255,255 // jmpq 400f <_sk_load_8888_dst_hsw+0x23>
.byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -20677,9 +20694,9 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,153 // vmovdqu (%r9,%rbx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,6,255,255,255 // jmpq 4017 <_sk_load_8888_dst_hsw+0x23>
+ .byte 233,6,255,255,255 // jmpq 400f <_sk_load_8888_dst_hsw+0x23>
.byte 15,31,0 // nopl (%rax)
- .byte 124,255 // jl 4115 <_sk_load_8888_dst_hsw+0x121>
+ .byte 124,255 // jl 410d <_sk_load_8888_dst_hsw+0x121>
.byte 255 // (bad)
.byte 255,157,255,255,255,135 // lcall *-0x78000001(%rbp)
.byte 255 // (bad)
@@ -20713,14 +20730,14 @@ _sk_gather_8888_hsw:
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,194,117,144,28,129 // vpgatherdd %ymm1,(%r9,%ymm0,4),%ymm3
- .byte 197,229,219,5,34,50,0,0 // vpand 0x3222(%rip),%ymm3,%ymm0 # 7380 <_sk_clut_4D_hsw+0xf2a>
+ .byte 197,229,219,5,42,50,0,0 // vpand 0x322a(%rip),%ymm3,%ymm0 # 7380 <_sk_clut_4D_hsw+0xf32>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,37,47,0,0 // vbroadcastss 0x2f25(%rip),%ymm8 # 7090 <_sk_clut_4D_hsw+0xc3a>
+ .byte 196,98,125,24,5,37,47,0,0 // vbroadcastss 0x2f25(%rip),%ymm8 # 7088 <_sk_clut_4D_hsw+0xc3a>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,39,50,0,0 // vpshufb 0x3227(%rip),%ymm3,%ymm1 # 73a0 <_sk_clut_4D_hsw+0xf4a>
+ .byte 196,226,101,0,13,47,50,0,0 // vpshufb 0x322f(%rip),%ymm3,%ymm1 # 73a0 <_sk_clut_4D_hsw+0xf52>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,53,50,0,0 // vpshufb 0x3235(%rip),%ymm3,%ymm2 # 73c0 <_sk_clut_4D_hsw+0xf6a>
+ .byte 196,226,101,0,21,61,50,0,0 // vpshufb 0x323d(%rip),%ymm3,%ymm2 # 73c0 <_sk_clut_4D_hsw+0xf72>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -20741,7 +20758,7 @@ _sk_store_8888_hsw:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,205,46,0,0 // vbroadcastss 0x2ecd(%rip),%ymm8 # 7094 <_sk_clut_4D_hsw+0xc3e>
+ .byte 196,98,125,24,5,205,46,0,0 // vbroadcastss 0x2ecd(%rip),%ymm8 # 708c <_sk_clut_4D_hsw+0xc3e>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -20757,7 +20774,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 4220 <_sk_store_8888_hsw+0x7a>
+ .byte 117,11 // jne 4218 <_sk_store_8888_hsw+0x7a>
.byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20766,17 +20783,17 @@ _sk_store_8888_hsw:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 421b <_sk_store_8888_hsw+0x75>
+ .byte 119,235 // ja 4213 <_sk_store_8888_hsw+0x75>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 4290 <_sk_store_8888_hsw+0xea>
+ .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 4288 <_sk_store_8888_hsw+0xea>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp 421b <_sk_store_8888_hsw+0x75>
+ .byte 235,207 // jmp 4213 <_sk_store_8888_hsw+0x75>
.byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
.byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 235,191 // jmp 421b <_sk_store_8888_hsw+0x75>
+ .byte 235,191 // jmp 4213 <_sk_store_8888_hsw+0x75>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -20784,7 +20801,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,153,16 // vmovd %xmm9,0x10(%r9,%rbx,4)
.byte 196,65,122,127,4,153 // vmovdqu %xmm8,(%r9,%rbx,4)
- .byte 235,142 // jmp 421b <_sk_store_8888_hsw+0x75>
+ .byte 235,142 // jmp 4213 <_sk_store_8888_hsw+0x75>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -20796,7 +20813,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb0042a4 <_sk_clut_4D_hsw+0xffffffffdaffde4e>
+ .byte 232,255,255,255,218 // callq ffffffffdb00429c <_sk_clut_4D_hsw+0xffffffffdaffde4e>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -20817,16 +20834,16 @@ _sk_load_bgra_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,87 // jne 4320 <_sk_load_bgra_hsw+0x74>
+ .byte 117,87 // jne 4318 <_sk_load_bgra_hsw+0x74>
.byte 196,193,126,111,28,153 // vmovdqu (%r9,%rbx,4),%ymm3
- .byte 197,229,219,5,9,49,0,0 // vpand 0x3109(%rip),%ymm3,%ymm0 # 73e0 <_sk_clut_4D_hsw+0xf8a>
+ .byte 197,229,219,5,17,49,0,0 // vpand 0x3111(%rip),%ymm3,%ymm0 # 73e0 <_sk_clut_4D_hsw+0xf92>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,180,45,0,0 // vbroadcastss 0x2db4(%rip),%ymm8 # 7098 <_sk_clut_4D_hsw+0xc42>
+ .byte 196,98,125,24,5,180,45,0,0 // vbroadcastss 0x2db4(%rip),%ymm8 # 7090 <_sk_clut_4D_hsw+0xc42>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,14,49,0,0 // vpshufb 0x310e(%rip),%ymm3,%ymm0 # 7400 <_sk_clut_4D_hsw+0xfaa>
+ .byte 196,226,101,0,5,22,49,0,0 // vpshufb 0x3116(%rip),%ymm3,%ymm0 # 7400 <_sk_clut_4D_hsw+0xfb2>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,28,49,0,0 // vpshufb 0x311c(%rip),%ymm3,%ymm0 # 7420 <_sk_clut_4D_hsw+0xfca>
+ .byte 196,226,101,0,5,36,49,0,0 // vpshufb 0x3124(%rip),%ymm3,%ymm0 # 7420 <_sk_clut_4D_hsw+0xfd2>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -20840,21 +20857,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,155 // ja 42cf <_sk_load_bgra_hsw+0x23>
+ .byte 119,155 // ja 42c7 <_sk_load_bgra_hsw+0x23>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 43cc <_sk_load_bgra_hsw+0x120>
+ .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 43c4 <_sk_load_bgra_hsw+0x120>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,28,153 // vmovd (%r9,%rbx,4),%xmm3
- .byte 233,124,255,255,255 // jmpq 42cf <_sk_load_bgra_hsw+0x23>
+ .byte 233,124,255,255,255 // jmpq 42c7 <_sk_load_bgra_hsw+0x23>
.byte 196,193,121,110,68,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,153 // vmovq (%r9,%rbx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,85,255,255,255 // jmpq 42cf <_sk_load_bgra_hsw+0x23>
+ .byte 233,85,255,255,255 // jmpq 42c7 <_sk_load_bgra_hsw+0x23>
.byte 196,193,121,110,68,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -20867,9 +20884,9 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,153 // vmovdqu (%r9,%rbx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,6,255,255,255 // jmpq 42cf <_sk_load_bgra_hsw+0x23>
+ .byte 233,6,255,255,255 // jmpq 42c7 <_sk_load_bgra_hsw+0x23>
.byte 15,31,0 // nopl (%rax)
- .byte 124,255 // jl 43cd <_sk_load_bgra_hsw+0x121>
+ .byte 124,255 // jl 43c5 <_sk_load_bgra_hsw+0x121>
.byte 255 // (bad)
.byte 255,157,255,255,255,135 // lcall *-0x78000001(%rbp)
.byte 255 // (bad)
@@ -20903,16 +20920,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,87 // jne 445c <_sk_load_bgra_dst_hsw+0x74>
+ .byte 117,87 // jne 4454 <_sk_load_bgra_dst_hsw+0x74>
.byte 196,193,126,111,60,153 // vmovdqu (%r9,%rbx,4),%ymm7
- .byte 197,197,219,37,45,48,0,0 // vpand 0x302d(%rip),%ymm7,%ymm4 # 7440 <_sk_clut_4D_hsw+0xfea>
+ .byte 197,197,219,37,53,48,0,0 // vpand 0x3035(%rip),%ymm7,%ymm4 # 7440 <_sk_clut_4D_hsw+0xff2>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,124,44,0,0 // vbroadcastss 0x2c7c(%rip),%ymm8 # 709c <_sk_clut_4D_hsw+0xc46>
+ .byte 196,98,125,24,5,124,44,0,0 // vbroadcastss 0x2c7c(%rip),%ymm8 # 7094 <_sk_clut_4D_hsw+0xc46>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,50,48,0,0 // vpshufb 0x3032(%rip),%ymm7,%ymm4 # 7460 <_sk_clut_4D_hsw+0x100a>
+ .byte 196,226,69,0,37,58,48,0,0 // vpshufb 0x303a(%rip),%ymm7,%ymm4 # 7460 <_sk_clut_4D_hsw+0x1012>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,64,48,0,0 // vpshufb 0x3040(%rip),%ymm7,%ymm4 # 7480 <_sk_clut_4D_hsw+0x102a>
+ .byte 196,226,69,0,37,72,48,0,0 // vpshufb 0x3048(%rip),%ymm7,%ymm4 # 7480 <_sk_clut_4D_hsw+0x1032>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -20926,21 +20943,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,155 // ja 440b <_sk_load_bgra_dst_hsw+0x23>
+ .byte 119,155 // ja 4403 <_sk_load_bgra_dst_hsw+0x23>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 4508 <_sk_load_bgra_dst_hsw+0x120>
+ .byte 76,141,29,141,0,0,0 // lea 0x8d(%rip),%r11 # 4500 <_sk_load_bgra_dst_hsw+0x120>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,153 // vmovd (%r9,%rbx,4),%xmm7
- .byte 233,124,255,255,255 // jmpq 440b <_sk_load_bgra_dst_hsw+0x23>
+ .byte 233,124,255,255,255 // jmpq 4403 <_sk_load_bgra_dst_hsw+0x23>
.byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,153 // vmovq (%r9,%rbx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,85,255,255,255 // jmpq 440b <_sk_load_bgra_dst_hsw+0x23>
+ .byte 233,85,255,255,255 // jmpq 4403 <_sk_load_bgra_dst_hsw+0x23>
.byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -20953,9 +20970,9 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,153 // vmovdqu (%r9,%rbx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,6,255,255,255 // jmpq 440b <_sk_load_bgra_dst_hsw+0x23>
+ .byte 233,6,255,255,255 // jmpq 4403 <_sk_load_bgra_dst_hsw+0x23>
.byte 15,31,0 // nopl (%rax)
- .byte 124,255 // jl 4509 <_sk_load_bgra_dst_hsw+0x121>
+ .byte 124,255 // jl 4501 <_sk_load_bgra_dst_hsw+0x121>
.byte 255 // (bad)
.byte 255,157,255,255,255,135 // lcall *-0x78000001(%rbp)
.byte 255 // (bad)
@@ -20989,14 +21006,14 @@ _sk_gather_bgra_hsw:
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,194,117,144,28,129 // vpgatherdd %ymm1,(%r9,%ymm0,4),%ymm3
- .byte 197,229,219,5,78,47,0,0 // vpand 0x2f4e(%rip),%ymm3,%ymm0 # 74a0 <_sk_clut_4D_hsw+0x104a>
+ .byte 197,229,219,5,86,47,0,0 // vpand 0x2f56(%rip),%ymm3,%ymm0 # 74a0 <_sk_clut_4D_hsw+0x1052>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,65,43,0,0 // vbroadcastss 0x2b41(%rip),%ymm8 # 70a0 <_sk_clut_4D_hsw+0xc4a>
+ .byte 196,98,125,24,5,65,43,0,0 // vbroadcastss 0x2b41(%rip),%ymm8 # 7098 <_sk_clut_4D_hsw+0xc4a>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,83,47,0,0 // vpshufb 0x2f53(%rip),%ymm3,%ymm0 # 74c0 <_sk_clut_4D_hsw+0x106a>
+ .byte 196,226,101,0,5,91,47,0,0 // vpshufb 0x2f5b(%rip),%ymm3,%ymm0 # 74c0 <_sk_clut_4D_hsw+0x1072>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,97,47,0,0 // vpshufb 0x2f61(%rip),%ymm3,%ymm0 # 74e0 <_sk_clut_4D_hsw+0x108a>
+ .byte 196,226,101,0,5,105,47,0,0 // vpshufb 0x2f69(%rip),%ymm3,%ymm0 # 74e0 <_sk_clut_4D_hsw+0x1092>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -21017,7 +21034,7 @@ _sk_store_bgra_hsw:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,233,42,0,0 // vbroadcastss 0x2ae9(%rip),%ymm8 # 70a4 <_sk_clut_4D_hsw+0xc4e>
+ .byte 196,98,125,24,5,233,42,0,0 // vbroadcastss 0x2ae9(%rip),%ymm8 # 709c <_sk_clut_4D_hsw+0xc4e>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21033,7 +21050,7 @@ _sk_store_bgra_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 4614 <_sk_store_bgra_hsw+0x7a>
+ .byte 117,11 // jne 460c <_sk_store_bgra_hsw+0x7a>
.byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -21042,17 +21059,17 @@ _sk_store_bgra_hsw:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 460f <_sk_store_bgra_hsw+0x75>
+ .byte 119,235 // ja 4607 <_sk_store_bgra_hsw+0x75>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 4684 <_sk_store_bgra_hsw+0xea>
+ .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 467c <_sk_store_bgra_hsw+0xea>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp 460f <_sk_store_bgra_hsw+0x75>
+ .byte 235,207 // jmp 4607 <_sk_store_bgra_hsw+0x75>
.byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
.byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 235,191 // jmp 460f <_sk_store_bgra_hsw+0x75>
+ .byte 235,191 // jmp 4607 <_sk_store_bgra_hsw+0x75>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -21060,7 +21077,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,153,16 // vmovd %xmm9,0x10(%r9,%rbx,4)
.byte 196,65,122,127,4,153 // vmovdqu %xmm8,(%r9,%rbx,4)
- .byte 235,142 // jmp 460f <_sk_store_bgra_hsw+0x75>
+ .byte 235,142 // jmp 4607 <_sk_store_bgra_hsw+0x75>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -21072,7 +21089,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb004698 <_sk_clut_4D_hsw+0xffffffffdaffe242>
+ .byte 232,255,255,255,218 // callq ffffffffdb004690 <_sk_clut_4D_hsw+0xffffffffdaffe242>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -21092,7 +21109,7 @@ _sk_load_f16_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,101 // jne 4721 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne 4719 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8
.byte 196,193,121,16,84,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm2
.byte 196,193,121,16,92,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm3
@@ -21118,29 +21135,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 4787 <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je 477f <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 4787 <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb 477f <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 4794 <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je 478c <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm2,%xmm2
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 4794 <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb 478c <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm3
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,109,255,255,255 // je 46d7 <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je 46cf <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm3,%xmm3
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,92,255,255,255 // jb 46d7 <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb 46cf <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 46d7 <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq 46cf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 46d7 <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq 46cf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq 46d7 <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq 46cf <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -21154,7 +21171,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,101 // jne 481e <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne 4816 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8
.byte 196,193,121,16,116,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm6
.byte 196,193,121,16,124,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm7
@@ -21180,29 +21197,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 4884 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je 487c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 4884 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb 487c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm6
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 4891 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je 4889 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm6,%xmm6
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 4891 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb 4889 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm7
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,109,255,255,255 // je 47d4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je 47cc <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm7,%xmm7
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,92,255,255,255 // jb 47d4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb 47cc <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 47d4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq 47cc <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 47d4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq 47cc <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq 47d4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq 47cc <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -21265,7 +21282,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,31 // jne 499f <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne 4997 <_sk_store_f16_hsw+0x7b>
.byte 196,65,120,17,28,193 // vmovups %xmm11,(%r9,%rax,8)
.byte 196,65,120,17,84,193,16 // vmovups %xmm10,0x10(%r9,%rax,8)
.byte 196,65,120,17,76,193,32 // vmovups %xmm9,0x20(%r9,%rax,8)
@@ -21274,22 +21291,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,193 // vmovq %xmm11,(%r9,%rax,8)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 499b <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je 4993 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,193,8 // vmovhpd %xmm11,0x8(%r9,%rax,8)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 499b <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb 4993 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,193,16 // vmovq %xmm10,0x10(%r9,%rax,8)
- .byte 116,218 // je 499b <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je 4993 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,193,24 // vmovhpd %xmm10,0x18(%r9,%rax,8)
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,205 // jb 499b <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb 4993 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,193,32 // vmovq %xmm9,0x20(%r9,%rax,8)
- .byte 116,196 // je 499b <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je 4993 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,193,40 // vmovhpd %xmm9,0x28(%r9,%rax,8)
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,183 // jb 499b <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb 4993 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,193,48 // vmovq %xmm8,0x30(%r9,%rax,8)
- .byte 235,174 // jmp 499b <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp 4993 <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -21304,7 +21321,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,204,0,0,0 // jne 4ae0 <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne 4ad8 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,65 // vmovupd (%r9,%rax,2),%xmm8
.byte 196,193,121,16,84,65,16 // vmovupd 0x10(%r9,%rax,2),%xmm2
.byte 196,193,121,16,92,65,32 // vmovupd 0x20(%r9,%rax,2),%xmm3
@@ -21323,7 +21340,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,51,38,0,0 // vbroadcastss 0x2633(%rip),%ymm10 # 70a8 <_sk_clut_4D_hsw+0xc52>
+ .byte 196,98,125,24,21,51,38,0,0 // vbroadcastss 0x2633(%rip),%ymm10 # 70a0 <_sk_clut_4D_hsw+0xc52>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21351,29 +21368,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,65 // vmovsd (%r9,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 4b46 <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je 4b3e <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,65,8 // vmovhpd 0x8(%r9,%rax,2),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 4b46 <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb 4b3e <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,65,16 // vmovsd 0x10(%r9,%rax,2),%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 4b53 <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je 4b4b <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,65,24 // vmovhpd 0x18(%r9,%rax,2),%xmm2,%xmm2
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 4b53 <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb 4b4b <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,65,32 // vmovsd 0x20(%r9,%rax,2),%xmm3
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,6,255,255,255 // je 4a2f <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je 4a27 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,65,40 // vmovhpd 0x28(%r9,%rax,2),%xmm3,%xmm3
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,245,254,255,255 // jb 4a2f <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb 4a27 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,65,48 // vmovq 0x30(%r9,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 4a2f <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq 4a27 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 4a2f <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq 4a27 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 4a2f <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq 4a27 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -21390,7 +21407,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,204,0,0,0 // jne 4c53 <_sk_load_rgb_u16_be_hsw+0xf7>
+ .byte 15,133,204,0,0,0 // jne 4c4b <_sk_load_rgb_u16_be_hsw+0xf7>
.byte 196,193,122,111,4,65 // vmovdqu (%r9,%rax,2),%xmm0
.byte 196,193,122,111,84,65,12 // vmovdqu 0xc(%r9,%rax,2),%xmm2
.byte 196,193,122,111,76,65,24 // vmovdqu 0x18(%r9,%rax,2),%xmm1
@@ -21414,7 +21431,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,171,36,0,0 // vbroadcastss 0x24ab(%rip),%ymm10 # 70ac <_sk_clut_4D_hsw+0xc56>
+ .byte 196,98,125,24,21,171,36,0,0 // vbroadcastss 0x24ab(%rip),%ymm10 # 70a4 <_sk_clut_4D_hsw+0xc56>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21431,41 +21448,41 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,95,36,0,0 // vbroadcastss 0x245f(%rip),%ymm3 # 70b0 <_sk_clut_4D_hsw+0xc5a>
+ .byte 196,226,125,24,29,95,36,0,0 // vbroadcastss 0x245f(%rip),%ymm3 # 70a8 <_sk_clut_4D_hsw+0xc5a>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,65 // vmovd (%r9,%rax,2),%xmm0
.byte 196,193,121,196,68,65,4,2 // vpinsrw $0x2,0x4(%r9,%rax,2),%xmm0,%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,5 // jne 4c6c <_sk_load_rgb_u16_be_hsw+0x110>
- .byte 233,79,255,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 117,5 // jne 4c64 <_sk_load_rgb_u16_be_hsw+0x110>
+ .byte 233,79,255,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
.byte 196,193,121,110,76,65,6 // vmovd 0x6(%r9,%rax,2),%xmm1
.byte 196,65,113,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%rax,2),%xmm1,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,26 // jb 4c9b <_sk_load_rgb_u16_be_hsw+0x13f>
+ .byte 114,26 // jb 4c93 <_sk_load_rgb_u16_be_hsw+0x13f>
.byte 196,193,121,110,76,65,12 // vmovd 0xc(%r9,%rax,2),%xmm1
.byte 196,193,113,196,84,65,16,2 // vpinsrw $0x2,0x10(%r9,%rax,2),%xmm1,%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 117,10 // jne 4ca0 <_sk_load_rgb_u16_be_hsw+0x144>
- .byte 233,32,255,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
- .byte 233,27,255,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 117,10 // jne 4c98 <_sk_load_rgb_u16_be_hsw+0x144>
+ .byte 233,32,255,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 233,27,255,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
.byte 196,193,121,110,76,65,18 // vmovd 0x12(%r9,%rax,2),%xmm1
.byte 196,65,113,196,76,65,22,2 // vpinsrw $0x2,0x16(%r9,%rax,2),%xmm1,%xmm9
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,26 // jb 4ccf <_sk_load_rgb_u16_be_hsw+0x173>
+ .byte 114,26 // jb 4cc7 <_sk_load_rgb_u16_be_hsw+0x173>
.byte 196,193,121,110,76,65,24 // vmovd 0x18(%r9,%rax,2),%xmm1
.byte 196,193,113,196,76,65,28,2 // vpinsrw $0x2,0x1c(%r9,%rax,2),%xmm1,%xmm1
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 117,10 // jne 4cd4 <_sk_load_rgb_u16_be_hsw+0x178>
- .byte 233,236,254,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
- .byte 233,231,254,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 117,10 // jne 4ccc <_sk_load_rgb_u16_be_hsw+0x178>
+ .byte 233,236,254,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 233,231,254,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
.byte 196,193,121,110,92,65,30 // vmovd 0x1e(%r9,%rax,2),%xmm3
.byte 196,65,97,196,92,65,34,2 // vpinsrw $0x2,0x22(%r9,%rax,2),%xmm3,%xmm11
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,20 // jb 4cfd <_sk_load_rgb_u16_be_hsw+0x1a1>
+ .byte 114,20 // jb 4cf5 <_sk_load_rgb_u16_be_hsw+0x1a1>
.byte 196,193,121,110,92,65,36 // vmovd 0x24(%r9,%rax,2),%xmm3
.byte 196,193,97,196,92,65,40,2 // vpinsrw $0x2,0x28(%r9,%rax,2),%xmm3,%xmm3
- .byte 233,190,254,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
- .byte 233,185,254,255,255 // jmpq 4bbb <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 233,190,254,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
+ .byte 233,185,254,255,255 // jmpq 4bb3 <_sk_load_rgb_u16_be_hsw+0x5f>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -21479,7 +21496,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
- .byte 196,98,125,24,5,139,35,0,0 // vbroadcastss 0x238b(%rip),%ymm8 # 70b4 <_sk_clut_4D_hsw+0xc5e>
+ .byte 196,98,125,24,5,139,35,0,0 // vbroadcastss 0x238b(%rip),%ymm8 # 70ac <_sk_clut_4D_hsw+0xc5e>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -21517,7 +21534,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,31 // jne 4e0d <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne 4e05 <_sk_store_u16_be_hsw+0x10b>
.byte 196,65,120,17,28,65 // vmovups %xmm11,(%r9,%rax,2)
.byte 196,65,120,17,84,65,16 // vmovups %xmm10,0x10(%r9,%rax,2)
.byte 196,65,120,17,76,65,32 // vmovups %xmm9,0x20(%r9,%rax,2)
@@ -21526,22 +21543,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,65 // vmovq %xmm11,(%r9,%rax,2)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je 4e01 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%rax,2)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb 4e01 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%rax,2)
- .byte 116,218 // je 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je 4e01 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%rax,2)
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,205 // jb 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb 4e01 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%rax,2)
- .byte 116,196 // je 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je 4e01 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%rax,2)
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,183 // jb 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb 4e01 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%rax,2)
- .byte 235,174 // jmp 4e09 <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp 4e01 <_sk_store_u16_be_hsw+0x107>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -21549,7 +21566,7 @@ FUNCTION(_sk_load_f32_hsw)
_sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,135,128,0,0,0 // ja 4ee7 <_sk_load_f32_hsw+0x8c>
+ .byte 15,135,128,0,0,0 // ja 4edf <_sk_load_f32_hsw+0x8c>
.byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d
.byte 76,99,88,8 // movslq 0x8(%rax),%r11
.byte 76,99,201 // movslq %ecx,%r9
@@ -21557,7 +21574,7 @@ _sk_load_f32_hsw:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,99,210 // movslq %r10d,%r10
- .byte 76,141,29,133,0,0,0 // lea 0x85(%rip),%r11 # 4f10 <_sk_load_f32_hsw+0xb5>
+ .byte 76,141,29,133,0,0,0 // lea 0x85(%rip),%r11 # 4f08 <_sk_load_f32_hsw+0xb5>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
@@ -21605,7 +21622,7 @@ FUNCTION(_sk_load_f32_dst_hsw)
_sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,135,128,0,0,0 // ja 4fbc <_sk_load_f32_dst_hsw+0x8c>
+ .byte 15,135,128,0,0,0 // ja 4fb4 <_sk_load_f32_dst_hsw+0x8c>
.byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d
.byte 76,99,88,8 // movslq 0x8(%rax),%r11
.byte 76,99,201 // movslq %ecx,%r9
@@ -21613,7 +21630,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,99,210 // movslq %r10d,%r10
- .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 4fe4 <_sk_load_f32_dst_hsw+0xb4>
+ .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 4fdc <_sk_load_f32_dst_hsw+0xb4>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
@@ -21677,7 +21694,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 77,133,192 // test %r8,%r8
- .byte 117,55 // jne 5083 <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne 507b <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -21690,22 +21707,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,129 // vmovupd %xmm10,(%r9,%rax,4)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 507f <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je 5077 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%rax,4)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 507f <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb 5077 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%rax,4)
- .byte 116,218 // je 507f <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je 5077 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%rax,4)
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,205 // jb 507f <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb 5077 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%rax,4)
- .byte 116,195 // je 507f <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je 5077 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%rax,4)
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,181 // jb 507f <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb 5077 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%rax,4)
- .byte 235,171 // jmp 507f <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp 5077 <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_clamp_x_hsw
.globl _sk_clamp_x_hsw
@@ -21782,7 +21799,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,7,31,0,0 // vmulss 0x1f07(%rip),%xmm9,%xmm0 # 70b8 <_sk_clut_4D_hsw+0xc62>
+ .byte 197,178,89,5,7,31,0,0 // vmulss 0x1f07(%rip),%xmm9,%xmm0 # 70b0 <_sk_clut_4D_hsw+0xc62>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -21809,7 +21826,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,167,30,0,0 // vmulss 0x1ea7(%rip),%xmm9,%xmm1 # 70bc <_sk_clut_4D_hsw+0xc66>
+ .byte 197,178,89,13,167,30,0,0 // vmulss 0x1ea7(%rip),%xmm9,%xmm1 # 70b4 <_sk_clut_4D_hsw+0xc66>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -21831,7 +21848,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,92,30,0,0 // vbroadcastss 0x1e5c(%rip),%ymm8 # 70c0 <_sk_clut_4D_hsw+0xc6a>
+ .byte 196,98,125,24,5,92,30,0,0 // vbroadcastss 0x1e5c(%rip),%ymm8 # 70b8 <_sk_clut_4D_hsw+0xc6a>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21849,9 +21866,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,63,30,0,0 // vbroadcastss 0x1e3f(%rip),%ymm8 # 70c4 <_sk_clut_4D_hsw+0xc6e>
+ .byte 196,98,125,24,5,63,30,0,0 // vbroadcastss 0x1e3f(%rip),%ymm8 # 70bc <_sk_clut_4D_hsw+0xc6e>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,53,30,0,0 // vbroadcastss 0x1e35(%rip),%ymm9 # 70c8 <_sk_clut_4D_hsw+0xc72>
+ .byte 196,98,125,24,13,53,30,0,0 // vbroadcastss 0x1e35(%rip),%ymm9 # 70c0 <_sk_clut_4D_hsw+0xc72>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -21867,11 +21884,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,5,30,0,0 // vbroadcastss 0x1e05(%rip),%ymm3 # 70cc <_sk_clut_4D_hsw+0xc76>
- .byte 196,98,125,24,5,0,30,0,0 // vbroadcastss 0x1e00(%rip),%ymm8 # 70d0 <_sk_clut_4D_hsw+0xc7a>
+ .byte 196,226,125,24,29,5,30,0,0 // vbroadcastss 0x1e05(%rip),%ymm3 # 70c4 <_sk_clut_4D_hsw+0xc76>
+ .byte 196,98,125,24,5,0,30,0,0 // vbroadcastss 0x1e00(%rip),%ymm8 # 70c8 <_sk_clut_4D_hsw+0xc7a>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,241,29,0,0 // vbroadcastss 0x1df1(%rip),%ymm3 # 70d4 <_sk_clut_4D_hsw+0xc7e>
+ .byte 196,226,125,24,29,241,29,0,0 // vbroadcastss 0x1df1(%rip),%ymm3 # 70cc <_sk_clut_4D_hsw+0xc7e>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -22071,9 +22088,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 77,137,211 // mov %r10,%r11
.byte 73,255,203 // dec %r11
- .byte 120,7 // js 55dc <_sk_evenly_spaced_gradient_hsw+0x19>
+ .byte 120,7 // js 55d4 <_sk_evenly_spaced_gradient_hsw+0x19>
.byte 196,193,242,42,203 // vcvtsi2ss %r11,%xmm1,%xmm1
- .byte 235,22 // jmp 55f2 <_sk_evenly_spaced_gradient_hsw+0x2f>
+ .byte 235,22 // jmp 55ea <_sk_evenly_spaced_gradient_hsw+0x2f>
.byte 76,137,219 // mov %r11,%rbx
.byte 72,209,235 // shr %rbx
.byte 65,131,227,1 // and $0x1,%r11d
@@ -22084,7 +22101,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,217 // vcvttps2dq %ymm1,%ymm11
.byte 73,131,250,8 // cmp $0x8,%r10
- .byte 119,70 // ja 564b <_sk_evenly_spaced_gradient_hsw+0x88>
+ .byte 119,70 // ja 5643 <_sk_evenly_spaced_gradient_hsw+0x88>
.byte 196,66,37,22,1 // vpermps (%r9),%ymm11,%ymm8
.byte 72,139,88,40 // mov 0x28(%rax),%rbx
.byte 196,98,37,22,11 // vpermps (%rbx),%ymm11,%ymm9
@@ -22100,7 +22117,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,226,37,22,27 // vpermps (%rbx),%ymm11,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,37,22,40 // vpermps (%rax),%ymm11,%ymm13
- .byte 235,110 // jmp 56b9 <_sk_evenly_spaced_gradient_hsw+0xf6>
+ .byte 235,110 // jmp 56b1 <_sk_evenly_spaced_gradient_hsw+0xf6>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,2,117,146,4,153 // vgatherdps %ymm1,(%r9,%ymm11,4),%ymm8
@@ -22137,14 +22154,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,249,25,0,0 // vbroadcastss 0x19f9(%rip),%ymm0 # 70d8 <_sk_clut_4D_hsw+0xc82>
- .byte 196,226,125,24,13,244,25,0,0 // vbroadcastss 0x19f4(%rip),%ymm1 # 70dc <_sk_clut_4D_hsw+0xc86>
+ .byte 196,226,125,24,5,249,25,0,0 // vbroadcastss 0x19f9(%rip),%ymm0 # 70d0 <_sk_clut_4D_hsw+0xc82>
+ .byte 196,226,125,24,13,244,25,0,0 // vbroadcastss 0x19f4(%rip),%ymm1 # 70d4 <_sk_clut_4D_hsw+0xc86>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,234,25,0,0 // vbroadcastss 0x19ea(%rip),%ymm0 # 70e0 <_sk_clut_4D_hsw+0xc8a>
+ .byte 196,226,125,24,5,234,25,0,0 // vbroadcastss 0x19ea(%rip),%ymm0 # 70d8 <_sk_clut_4D_hsw+0xc8a>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,224,25,0,0 // vbroadcastss 0x19e0(%rip),%ymm1 # 70e4 <_sk_clut_4D_hsw+0xc8e>
+ .byte 196,226,125,24,13,224,25,0,0 // vbroadcastss 0x19e0(%rip),%ymm1 # 70dc <_sk_clut_4D_hsw+0xc8e>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,214,25,0,0 // vbroadcastss 0x19d6(%rip),%ymm0 # 70e8 <_sk_clut_4D_hsw+0xc92>
+ .byte 196,226,125,24,5,214,25,0,0 // vbroadcastss 0x19d6(%rip),%ymm0 # 70e0 <_sk_clut_4D_hsw+0xc92>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -22159,11 +22176,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,8 // mov (%rax),%r9
.byte 73,131,249,1 // cmp $0x1,%r9
- .byte 15,134,180,0,0,0 // jbe 57ea <_sk_gradient_hsw+0xc3>
+ .byte 15,134,180,0,0,0 // jbe 57e2 <_sk_gradient_hsw+0xc3>
.byte 76,139,80,72 // mov 0x48(%rax),%r10
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,187,1,0,0,0 // mov $0x1,%r11d
- .byte 196,226,125,24,21,159,25,0,0 // vbroadcastss 0x199f(%rip),%ymm2 # 70ec <_sk_clut_4D_hsw+0xc96>
+ .byte 196,226,125,24,21,159,25,0,0 // vbroadcastss 0x199f(%rip),%ymm2 # 70e4 <_sk_clut_4D_hsw+0xc96>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,154 // vbroadcastss (%r10,%r11,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -22171,10 +22188,10 @@ _sk_gradient_hsw:
.byte 196,65,101,254,201 // vpaddd %ymm9,%ymm3,%ymm9
.byte 73,255,195 // inc %r11
.byte 77,57,217 // cmp %r11,%r9
- .byte 117,226 // jne 5752 <_sk_gradient_hsw+0x2b>
+ .byte 117,226 // jne 574a <_sk_gradient_hsw+0x2b>
.byte 76,139,80,8 // mov 0x8(%rax),%r10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 118,121 // jbe 57f3 <_sk_gradient_hsw+0xcc>
+ .byte 118,121 // jbe 57eb <_sk_gradient_hsw+0xcc>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,2,117,146,4,138 // vgatherdps %ymm1,(%r10,%ymm9,4),%ymm8
@@ -22198,7 +22215,7 @@ _sk_gradient_hsw:
.byte 196,130,21,146,28,137 // vgatherdps %ymm13,(%r9,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 5837 <_sk_gradient_hsw+0x110>
+ .byte 235,77 // jmp 582f <_sk_gradient_hsw+0x110>
.byte 76,139,80,8 // mov 0x8(%rax),%r10
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,2 // vpermps (%r10),%ymm9,%ymm8
@@ -22258,24 +22275,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,30,24,0,0 // vbroadcastss 0x181e(%rip),%ymm13 # 70f0 <_sk_clut_4D_hsw+0xc9a>
- .byte 196,98,125,24,53,25,24,0,0 // vbroadcastss 0x1819(%rip),%ymm14 # 70f4 <_sk_clut_4D_hsw+0xc9e>
+ .byte 196,98,125,24,45,30,24,0,0 // vbroadcastss 0x181e(%rip),%ymm13 # 70e8 <_sk_clut_4D_hsw+0xc9a>
+ .byte 196,98,125,24,53,25,24,0,0 // vbroadcastss 0x1819(%rip),%ymm14 # 70ec <_sk_clut_4D_hsw+0xc9e>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,15,24,0,0 // vbroadcastss 0x180f(%rip),%ymm13 # 70f8 <_sk_clut_4D_hsw+0xca2>
+ .byte 196,98,125,24,45,15,24,0,0 // vbroadcastss 0x180f(%rip),%ymm13 # 70f0 <_sk_clut_4D_hsw+0xca2>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,5,24,0,0 // vbroadcastss 0x1805(%rip),%ymm14 # 70fc <_sk_clut_4D_hsw+0xca6>
+ .byte 196,98,125,24,53,5,24,0,0 // vbroadcastss 0x1805(%rip),%ymm14 # 70f4 <_sk_clut_4D_hsw+0xca6>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,240,23,0,0 // vbroadcastss 0x17f0(%rip),%ymm10 # 7100 <_sk_clut_4D_hsw+0xcaa>
+ .byte 196,98,125,24,21,240,23,0,0 // vbroadcastss 0x17f0(%rip),%ymm10 # 70f8 <_sk_clut_4D_hsw+0xcaa>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,218,23,0,0 // vbroadcastss 0x17da(%rip),%ymm10 # 7104 <_sk_clut_4D_hsw+0xcae>
+ .byte 196,98,125,24,21,218,23,0,0 // vbroadcastss 0x17da(%rip),%ymm10 # 70fc <_sk_clut_4D_hsw+0xcae>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,196,23,0,0 // vbroadcastss 0x17c4(%rip),%ymm10 # 7108 <_sk_clut_4D_hsw+0xcb2>
+ .byte 196,98,125,24,21,196,23,0,0 // vbroadcastss 0x17c4(%rip),%ymm10 # 7100 <_sk_clut_4D_hsw+0xcb2>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -22303,23 +22320,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,120,23,0,0 // vbroadcastss 0x1778(%rip),%ymm11 # 710c <_sk_clut_4D_hsw+0xcb6>
+ .byte 196,98,125,24,29,120,23,0,0 // vbroadcastss 0x1778(%rip),%ymm11 # 7104 <_sk_clut_4D_hsw+0xcb6>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,87,23,0,0 // vbroadcastss 0x1757(%rip),%ymm9 # 7110 <_sk_clut_4D_hsw+0xcba>
+ .byte 196,98,125,24,13,87,23,0,0 // vbroadcastss 0x1757(%rip),%ymm9 # 7108 <_sk_clut_4D_hsw+0xcba>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,58,23,0,0 // vbroadcastss 0x173a(%rip),%ymm9 # 7114 <_sk_clut_4D_hsw+0xcbe>
+ .byte 196,98,125,24,13,58,23,0,0 // vbroadcastss 0x173a(%rip),%ymm9 # 710c <_sk_clut_4D_hsw+0xcbe>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,43,23,0,0 // vbroadcastss 0x172b(%rip),%ymm11 # 7118 <_sk_clut_4D_hsw+0xcc2>
+ .byte 196,98,125,24,29,43,23,0,0 // vbroadcastss 0x172b(%rip),%ymm11 # 7110 <_sk_clut_4D_hsw+0xcc2>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22338,23 +22355,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,240,22,0,0 // vbroadcastss 0x16f0(%rip),%ymm11 # 711c <_sk_clut_4D_hsw+0xcc6>
+ .byte 196,98,125,24,29,240,22,0,0 // vbroadcastss 0x16f0(%rip),%ymm11 # 7114 <_sk_clut_4D_hsw+0xcc6>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,207,22,0,0 // vbroadcastss 0x16cf(%rip),%ymm9 # 7120 <_sk_clut_4D_hsw+0xcca>
+ .byte 196,98,125,24,13,207,22,0,0 // vbroadcastss 0x16cf(%rip),%ymm9 # 7118 <_sk_clut_4D_hsw+0xcca>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,178,22,0,0 // vbroadcastss 0x16b2(%rip),%ymm9 # 7124 <_sk_clut_4D_hsw+0xcce>
+ .byte 196,98,125,24,13,178,22,0,0 // vbroadcastss 0x16b2(%rip),%ymm9 # 711c <_sk_clut_4D_hsw+0xcce>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,163,22,0,0 // vbroadcastss 0x16a3(%rip),%ymm11 # 7128 <_sk_clut_4D_hsw+0xcd2>
+ .byte 196,98,125,24,29,163,22,0,0 // vbroadcastss 0x16a3(%rip),%ymm11 # 7120 <_sk_clut_4D_hsw+0xcd2>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22372,14 +22389,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,110,22,0,0 // vbroadcastss 0x166e(%rip),%ymm10 # 712c <_sk_clut_4D_hsw+0xcd6>
+ .byte 196,98,125,24,21,110,22,0,0 // vbroadcastss 0x166e(%rip),%ymm10 # 7124 <_sk_clut_4D_hsw+0xcd6>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,77,22,0,0 // vbroadcastss 0x164d(%rip),%ymm8 # 7130 <_sk_clut_4D_hsw+0xcda>
+ .byte 196,98,125,24,5,77,22,0,0 // vbroadcastss 0x164d(%rip),%ymm8 # 7128 <_sk_clut_4D_hsw+0xcda>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22419,7 +22436,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,237,21,0,0 // vbroadcastss 0x15ed(%rip),%ymm8 # 7134 <_sk_clut_4D_hsw+0xcde>
+ .byte 196,98,125,24,5,237,21,0,0 // vbroadcastss 0x15ed(%rip),%ymm8 # 712c <_sk_clut_4D_hsw+0xcde>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -22453,9 +22470,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,129,21,0,0 // vbroadcastss 0x1581(%rip),%ymm0 # 7138 <_sk_clut_4D_hsw+0xce2>
+ .byte 196,226,125,24,5,129,21,0,0 // vbroadcastss 0x1581(%rip),%ymm0 # 7130 <_sk_clut_4D_hsw+0xce2>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,120,21,0,0 // vbroadcastss 0x1578(%rip),%ymm8 # 713c <_sk_clut_4D_hsw+0xce6>
+ .byte 196,98,125,24,5,120,21,0,0 // vbroadcastss 0x1578(%rip),%ymm8 # 7134 <_sk_clut_4D_hsw+0xce6>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22466,7 +22483,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,96,21,0,0 // vbroadcastss 0x1560(%rip),%ymm0 # 7140 <_sk_clut_4D_hsw+0xcea>
+ .byte 196,226,125,24,5,96,21,0,0 // vbroadcastss 0x1560(%rip),%ymm0 # 7138 <_sk_clut_4D_hsw+0xcea>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22478,9 +22495,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,68,21,0,0 // vbroadcastss 0x1544(%rip),%ymm1 # 7144 <_sk_clut_4D_hsw+0xcee>
+ .byte 196,226,125,24,13,68,21,0,0 // vbroadcastss 0x1544(%rip),%ymm1 # 713c <_sk_clut_4D_hsw+0xcee>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,58,21,0,0 // vbroadcastss 0x153a(%rip),%ymm8 # 7148 <_sk_clut_4D_hsw+0xcf2>
+ .byte 196,98,125,24,5,58,21,0,0 // vbroadcastss 0x153a(%rip),%ymm8 # 7140 <_sk_clut_4D_hsw+0xcf2>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22491,7 +22508,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,34,21,0,0 // vbroadcastss 0x1522(%rip),%ymm1 # 714c <_sk_clut_4D_hsw+0xcf6>
+ .byte 196,226,125,24,13,34,21,0,0 // vbroadcastss 0x1522(%rip),%ymm1 # 7144 <_sk_clut_4D_hsw+0xcf6>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22503,13 +22520,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,5,21,0,0 // vbroadcastss 0x1505(%rip),%ymm0 # 7150 <_sk_clut_4D_hsw+0xcfa>
+ .byte 196,226,125,24,5,5,21,0,0 // vbroadcastss 0x1505(%rip),%ymm0 # 7148 <_sk_clut_4D_hsw+0xcfa>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,252,20,0,0 // vbroadcastss 0x14fc(%rip),%ymm8 # 7154 <_sk_clut_4D_hsw+0xcfe>
+ .byte 196,98,125,24,5,252,20,0,0 // vbroadcastss 0x14fc(%rip),%ymm8 # 714c <_sk_clut_4D_hsw+0xcfe>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,237,20,0,0 // vbroadcastss 0x14ed(%rip),%ymm10 # 7158 <_sk_clut_4D_hsw+0xd02>
- .byte 196,98,125,24,29,232,20,0,0 // vbroadcastss 0x14e8(%rip),%ymm11 # 715c <_sk_clut_4D_hsw+0xd06>
+ .byte 196,98,125,24,21,237,20,0,0 // vbroadcastss 0x14ed(%rip),%ymm10 # 7150 <_sk_clut_4D_hsw+0xd02>
+ .byte 196,98,125,24,29,232,20,0,0 // vbroadcastss 0x14e8(%rip),%ymm11 # 7154 <_sk_clut_4D_hsw+0xd06>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22521,16 +22538,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,203,20,0,0 // vbroadcastss 0x14cb(%rip),%ymm0 # 7160 <_sk_clut_4D_hsw+0xd0a>
+ .byte 196,226,125,24,5,203,20,0,0 // vbroadcastss 0x14cb(%rip),%ymm0 # 7158 <_sk_clut_4D_hsw+0xd0a>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,194,20,0,0 // vbroadcastss 0x14c2(%rip),%ymm8 # 7164 <_sk_clut_4D_hsw+0xd0e>
+ .byte 196,98,125,24,5,194,20,0,0 // vbroadcastss 0x14c2(%rip),%ymm8 # 715c <_sk_clut_4D_hsw+0xd0e>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,184,20,0,0 // vbroadcastss 0x14b8(%rip),%ymm9 # 7168 <_sk_clut_4D_hsw+0xd12>
- .byte 196,98,125,24,21,179,20,0,0 // vbroadcastss 0x14b3(%rip),%ymm10 # 716c <_sk_clut_4D_hsw+0xd16>
+ .byte 196,98,125,24,13,184,20,0,0 // vbroadcastss 0x14b8(%rip),%ymm9 # 7160 <_sk_clut_4D_hsw+0xd12>
+ .byte 196,98,125,24,21,179,20,0,0 // vbroadcastss 0x14b3(%rip),%ymm10 # 7164 <_sk_clut_4D_hsw+0xd16>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,169,20,0,0 // vbroadcastss 0x14a9(%rip),%ymm9 # 7170 <_sk_clut_4D_hsw+0xd1a>
+ .byte 196,98,125,24,13,169,20,0,0 // vbroadcastss 0x14a9(%rip),%ymm9 # 7168 <_sk_clut_4D_hsw+0xd1a>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,159,20,0,0 // vbroadcastss 0x149f(%rip),%ymm10 # 7174 <_sk_clut_4D_hsw+0xd1e>
+ .byte 196,98,125,24,21,159,20,0,0 // vbroadcastss 0x149f(%rip),%ymm10 # 716c <_sk_clut_4D_hsw+0xd1e>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22541,14 +22558,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,135,20,0,0 // vbroadcastss 0x1487(%rip),%ymm8 # 7178 <_sk_clut_4D_hsw+0xd22>
+ .byte 196,98,125,24,5,135,20,0,0 // vbroadcastss 0x1487(%rip),%ymm8 # 7170 <_sk_clut_4D_hsw+0xd22>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,121,20,0,0 // vbroadcastss 0x1479(%rip),%ymm10 # 717c <_sk_clut_4D_hsw+0xd26>
- .byte 196,98,125,24,29,116,20,0,0 // vbroadcastss 0x1474(%rip),%ymm11 # 7180 <_sk_clut_4D_hsw+0xd2a>
+ .byte 196,98,125,24,21,121,20,0,0 // vbroadcastss 0x1479(%rip),%ymm10 # 7174 <_sk_clut_4D_hsw+0xd26>
+ .byte 196,98,125,24,29,116,20,0,0 // vbroadcastss 0x1474(%rip),%ymm11 # 7178 <_sk_clut_4D_hsw+0xd2a>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,101,20,0,0 // vbroadcastss 0x1465(%rip),%ymm8 # 7184 <_sk_clut_4D_hsw+0xd2e>
+ .byte 196,98,125,24,5,101,20,0,0 // vbroadcastss 0x1465(%rip),%ymm8 # 717c <_sk_clut_4D_hsw+0xd2e>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22559,12 +22576,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,77,20,0,0 // vbroadcastss 0x144d(%rip),%ymm0 # 7188 <_sk_clut_4D_hsw+0xd32>
+ .byte 196,226,125,24,5,77,20,0,0 // vbroadcastss 0x144d(%rip),%ymm0 # 7180 <_sk_clut_4D_hsw+0xd32>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,58,20,0,0 // vbroadcastss 0x143a(%rip),%ymm10 # 718c <_sk_clut_4D_hsw+0xd36>
- .byte 196,98,125,24,29,53,20,0,0 // vbroadcastss 0x1435(%rip),%ymm11 # 7190 <_sk_clut_4D_hsw+0xd3a>
+ .byte 196,98,125,24,21,58,20,0,0 // vbroadcastss 0x143a(%rip),%ymm10 # 7184 <_sk_clut_4D_hsw+0xd36>
+ .byte 196,98,125,24,29,53,20,0,0 // vbroadcastss 0x1435(%rip),%ymm11 # 7188 <_sk_clut_4D_hsw+0xd3a>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22576,13 +22593,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,24,20,0,0 // vbroadcastss 0x1418(%rip),%ymm1 # 7194 <_sk_clut_4D_hsw+0xd3e>
+ .byte 196,226,125,24,13,24,20,0,0 // vbroadcastss 0x1418(%rip),%ymm1 # 718c <_sk_clut_4D_hsw+0xd3e>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,14,20,0,0 // vbroadcastss 0x140e(%rip),%ymm8 # 7198 <_sk_clut_4D_hsw+0xd42>
+ .byte 196,98,125,24,5,14,20,0,0 // vbroadcastss 0x140e(%rip),%ymm8 # 7190 <_sk_clut_4D_hsw+0xd42>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,255,19,0,0 // vbroadcastss 0x13ff(%rip),%ymm10 # 719c <_sk_clut_4D_hsw+0xd46>
- .byte 196,98,125,24,29,250,19,0,0 // vbroadcastss 0x13fa(%rip),%ymm11 # 71a0 <_sk_clut_4D_hsw+0xd4a>
+ .byte 196,98,125,24,21,255,19,0,0 // vbroadcastss 0x13ff(%rip),%ymm10 # 7194 <_sk_clut_4D_hsw+0xd46>
+ .byte 196,98,125,24,29,250,19,0,0 // vbroadcastss 0x13fa(%rip),%ymm11 # 7198 <_sk_clut_4D_hsw+0xd4a>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22594,16 +22611,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,221,19,0,0 // vbroadcastss 0x13dd(%rip),%ymm1 # 71a4 <_sk_clut_4D_hsw+0xd4e>
+ .byte 196,226,125,24,13,221,19,0,0 // vbroadcastss 0x13dd(%rip),%ymm1 # 719c <_sk_clut_4D_hsw+0xd4e>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,211,19,0,0 // vbroadcastss 0x13d3(%rip),%ymm8 # 71a8 <_sk_clut_4D_hsw+0xd52>
+ .byte 196,98,125,24,5,211,19,0,0 // vbroadcastss 0x13d3(%rip),%ymm8 # 71a0 <_sk_clut_4D_hsw+0xd52>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,201,19,0,0 // vbroadcastss 0x13c9(%rip),%ymm9 # 71ac <_sk_clut_4D_hsw+0xd56>
- .byte 196,98,125,24,21,196,19,0,0 // vbroadcastss 0x13c4(%rip),%ymm10 # 71b0 <_sk_clut_4D_hsw+0xd5a>
+ .byte 196,98,125,24,13,201,19,0,0 // vbroadcastss 0x13c9(%rip),%ymm9 # 71a4 <_sk_clut_4D_hsw+0xd56>
+ .byte 196,98,125,24,21,196,19,0,0 // vbroadcastss 0x13c4(%rip),%ymm10 # 71a8 <_sk_clut_4D_hsw+0xd5a>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,186,19,0,0 // vbroadcastss 0x13ba(%rip),%ymm9 # 71b4 <_sk_clut_4D_hsw+0xd5e>
+ .byte 196,98,125,24,13,186,19,0,0 // vbroadcastss 0x13ba(%rip),%ymm9 # 71ac <_sk_clut_4D_hsw+0xd5e>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,176,19,0,0 // vbroadcastss 0x13b0(%rip),%ymm10 # 71b8 <_sk_clut_4D_hsw+0xd62>
+ .byte 196,98,125,24,21,176,19,0,0 // vbroadcastss 0x13b0(%rip),%ymm10 # 71b0 <_sk_clut_4D_hsw+0xd62>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22614,14 +22631,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,152,19,0,0 // vbroadcastss 0x1398(%rip),%ymm8 # 71bc <_sk_clut_4D_hsw+0xd66>
+ .byte 196,98,125,24,5,152,19,0,0 // vbroadcastss 0x1398(%rip),%ymm8 # 71b4 <_sk_clut_4D_hsw+0xd66>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,137,19,0,0 // vbroadcastss 0x1389(%rip),%ymm10 # 71c0 <_sk_clut_4D_hsw+0xd6a>
- .byte 196,98,125,24,29,132,19,0,0 // vbroadcastss 0x1384(%rip),%ymm11 # 71c4 <_sk_clut_4D_hsw+0xd6e>
+ .byte 196,98,125,24,21,137,19,0,0 // vbroadcastss 0x1389(%rip),%ymm10 # 71b8 <_sk_clut_4D_hsw+0xd6a>
+ .byte 196,98,125,24,29,132,19,0,0 // vbroadcastss 0x1384(%rip),%ymm11 # 71bc <_sk_clut_4D_hsw+0xd6e>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,117,19,0,0 // vbroadcastss 0x1375(%rip),%ymm8 # 71c8 <_sk_clut_4D_hsw+0xd72>
+ .byte 196,98,125,24,5,117,19,0,0 // vbroadcastss 0x1375(%rip),%ymm8 # 71c0 <_sk_clut_4D_hsw+0xd72>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22632,12 +22649,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,93,19,0,0 // vbroadcastss 0x135d(%rip),%ymm1 # 71cc <_sk_clut_4D_hsw+0xd76>
+ .byte 196,226,125,24,13,93,19,0,0 // vbroadcastss 0x135d(%rip),%ymm1 # 71c4 <_sk_clut_4D_hsw+0xd76>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,73,19,0,0 // vbroadcastss 0x1349(%rip),%ymm10 # 71d0 <_sk_clut_4D_hsw+0xd7a>
- .byte 196,98,125,24,29,68,19,0,0 // vbroadcastss 0x1344(%rip),%ymm11 # 71d4 <_sk_clut_4D_hsw+0xd7e>
+ .byte 196,98,125,24,21,73,19,0,0 // vbroadcastss 0x1349(%rip),%ymm10 # 71c8 <_sk_clut_4D_hsw+0xd7a>
+ .byte 196,98,125,24,29,68,19,0,0 // vbroadcastss 0x1344(%rip),%ymm11 # 71cc <_sk_clut_4D_hsw+0xd7e>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22777,19 +22794,19 @@ _sk_clut_3D_hsw:
.byte 197,254,127,76,36,160 // vmovdqu %ymm1,-0x60(%rsp)
.byte 72,139,0 // mov (%rax),%rax
.byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1
- .byte 196,226,125,88,61,245,16,0,0 // vpbroadcastd 0x10f5(%rip),%ymm7 # 71dc <_sk_clut_4D_hsw+0xd86>
+ .byte 196,226,125,88,61,245,16,0,0 // vpbroadcastd 0x10f5(%rip),%ymm7 # 71d4 <_sk_clut_4D_hsw+0xd86>
.byte 196,226,117,64,207 // vpmulld %ymm7,%ymm1,%ymm1
.byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
.byte 196,98,77,146,4,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm8
- .byte 196,98,125,88,21,225,16,0,0 // vpbroadcastd 0x10e1(%rip),%ymm10 # 71e0 <_sk_clut_4D_hsw+0xd8a>
+ .byte 196,98,125,88,21,225,16,0,0 // vpbroadcastd 0x10e1(%rip),%ymm10 # 71d8 <_sk_clut_4D_hsw+0xd8a>
.byte 196,193,117,254,242 // vpaddd %ymm10,%ymm1,%ymm6
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,226,37,146,28,176 // vgatherdps %ymm11,(%rax,%ymm6,4),%ymm3
- .byte 196,98,125,88,29,204,16,0,0 // vpbroadcastd 0x10cc(%rip),%ymm11 # 71e4 <_sk_clut_4D_hsw+0xd8e>
+ .byte 196,98,125,88,29,204,16,0,0 // vpbroadcastd 0x10cc(%rip),%ymm11 # 71dc <_sk_clut_4D_hsw+0xd8e>
.byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
.byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
.byte 196,226,77,146,36,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm4
- .byte 196,98,125,24,45,168,16,0,0 // vbroadcastss 0x10a8(%rip),%ymm13 # 71d8 <_sk_clut_4D_hsw+0xd82>
+ .byte 196,98,125,24,45,168,16,0,0 // vbroadcastss 0x10a8(%rip),%ymm13 # 71d0 <_sk_clut_4D_hsw+0xd82>
.byte 196,193,124,88,245 // vaddps %ymm13,%ymm0,%ymm6
.byte 197,254,91,246 // vcvttps2dq %ymm6,%ymm6
.byte 196,226,77,64,205 // vpmulld %ymm5,%ymm6,%ymm1
@@ -23009,19 +23026,19 @@ _sk_clut_4D_hsw:
.byte 197,126,91,245 // vcvttps2dq %ymm5,%ymm14
.byte 196,98,13,64,233 // vpmulld %ymm1,%ymm14,%ymm13
.byte 197,149,254,198 // vpaddd %ymm6,%ymm13,%ymm0
- .byte 196,98,125,88,21,78,12,0,0 // vpbroadcastd 0xc4e(%rip),%ymm10 # 71ec <_sk_clut_4D_hsw+0xd96>
+ .byte 196,98,125,88,21,78,12,0,0 // vpbroadcastd 0xc4e(%rip),%ymm10 # 71e4 <_sk_clut_4D_hsw+0xd96>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 196,98,61,146,60,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm15
- .byte 196,98,125,88,29,57,12,0,0 // vpbroadcastd 0xc39(%rip),%ymm11 # 71f0 <_sk_clut_4D_hsw+0xd9a>
+ .byte 196,98,125,88,29,57,12,0,0 // vpbroadcastd 0xc39(%rip),%ymm11 # 71e8 <_sk_clut_4D_hsw+0xd9a>
.byte 196,65,125,254,195 // vpaddd %ymm11,%ymm0,%ymm8
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 196,98,125,88,37,36,12,0,0 // vpbroadcastd 0xc24(%rip),%ymm12 # 71f4 <_sk_clut_4D_hsw+0xd9e>
+ .byte 196,98,125,88,37,36,12,0,0 // vpbroadcastd 0xc24(%rip),%ymm12 # 71ec <_sk_clut_4D_hsw+0xd9e>
.byte 196,193,125,254,196 // vpaddd %ymm12,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 196,226,61,146,60,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm7
- .byte 196,98,125,24,13,255,11,0,0 // vbroadcastss 0xbff(%rip),%ymm9 # 71e8 <_sk_clut_4D_hsw+0xd92>
+ .byte 196,98,125,24,13,255,11,0,0 // vbroadcastss 0xbff(%rip),%ymm9 # 71e0 <_sk_clut_4D_hsw+0xd92>
.byte 196,65,84,88,193 // vaddps %ymm9,%ymm5,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,226,61,64,193 // vpmulld %ymm1,%ymm8,%ymm0
@@ -23346,7 +23363,7 @@ _sk_clut_4D_hsw:
.byte 197,196,92,214 // vsubps %ymm6,%ymm7,%ymm2
.byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,49,5,0,0 // vbroadcastss 0x531(%rip),%ymm3 # 71f8 <_sk_clut_4D_hsw+0xda2>
+ .byte 196,226,125,24,29,49,5,0,0 // vbroadcastss 0x531(%rip),%ymm3 # 71f0 <_sk_clut_4D_hsw+0xda2>
.byte 197,252,16,164,36,32,3,0,0 // vmovups 0x320(%rsp),%ymm4
.byte 197,252,16,172,36,64,3,0,0 // vmovups 0x340(%rsp),%ymm5
.byte 197,252,16,180,36,96,3,0,0 // vmovups 0x360(%rsp),%ymm6
@@ -23397,25 +23414,25 @@ BALIGN4
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 6dad <.literal4+0xb9>
+ .byte 71,225,61 // rex.RXB loope 6da5 <.literal4+0xb9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,154 // cmpb $0x9a,(%rdi)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 6dbd <.literal4+0xc9>
+ .byte 71,225,61 // rex.RXB loope 6db5 <.literal4+0xc9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,154 // cmpb $0x9a,(%rdi)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 6dcd <.literal4+0xd9>
+ .byte 71,225,61 // rex.RXB loope 6dc5 <.literal4+0xd9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,154 // cmpb $0x9a,(%rdi)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 6ddd <.literal4+0xe9>
+ .byte 71,225,61 // rex.RXB loope 6dd5 <.literal4+0xe9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax)
@@ -23478,7 +23495,7 @@ BALIGN4
.byte 190,129,128,128,59 // mov $0x3b808081,%esi
.byte 129,128,128,59,0,248,0,0,8,33 // addl $0x21080000,-0x7ffc480(%rax)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 6e51 <.literal4+0x15d>
+ .byte 224,7 // loopne 6e49 <.literal4+0x15d>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -23494,10 +23511,10 @@ BALIGN4
.byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 6e78 <.literal4+0x184>
+ .byte 127,0 // jg 6e70 <.literal4+0x184>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 6ef1 <.literal4+0x1fd>
+ .byte 119,115 // ja 6ee9 <.literal4+0x1fd>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -23511,10 +23528,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 6eac <.literal4+0x1b8>
+ .byte 127,0 // jg 6ea4 <.literal4+0x1b8>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 6f25 <.literal4+0x231>
+ .byte 119,115 // ja 6f1d <.literal4+0x231>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -23528,10 +23545,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 6ee0 <.literal4+0x1ec>
+ .byte 127,0 // jg 6ed8 <.literal4+0x1ec>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 6f59 <.literal4+0x265>
+ .byte 119,115 // ja 6f51 <.literal4+0x265>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -23545,10 +23562,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 6f14 <.literal4+0x220>
+ .byte 127,0 // jg 6f0c <.literal4+0x220>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 6f8d <.literal4+0x299>
+ .byte 119,115 // ja 6f85 <.literal4+0x299>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -23562,10 +23579,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 6f48 <.literal4+0x254>
+ .byte 127,0 // jg 6f40 <.literal4+0x254>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 6fc1 <.literal4+0x2cd>
+ .byte 119,115 // ja 6fb9 <.literal4+0x2cd>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -23578,7 +23595,7 @@ BALIGN4
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,200 // add %cl,%al
.byte 66,0,0 // rex.X add %al,(%rax)
- .byte 127,67 // jg 6fbb <.literal4+0x2c7>
+ .byte 127,67 // jg 6fb3 <.literal4+0x2c7>
.byte 0,0 // add %al,(%rax)
.byte 0,195 // add %al,%bl
.byte 0,0 // add %al,(%rax)
@@ -23590,7 +23607,7 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 6fdb <.literal4+0x2e7>
+ .byte 118,63 // jbe 6fd3 <.literal4+0x2e7>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
.byte 128,59,0 // cmpb $0x0,(%rbx)
@@ -23612,7 +23629,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 6ff5 <.literal4+0x301>
+ .byte 224,7 // loopne 6fed <.literal4+0x301>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -23624,7 +23641,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 7011 <.literal4+0x31d>
+ .byte 224,7 // loopne 7009 <.literal4+0x31d>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -23635,7 +23652,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 7066 <.literal4+0x372>
+ .byte 124,66 // jl 705e <.literal4+0x372>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -23661,7 +23678,7 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 70c9 <.literal4+0x3d5>
+ .byte 112,65 // jo 70c1 <.literal4+0x3d5>
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
.byte 128,59,0 // cmpb $0x0,(%rbx)
.byte 0,127,67 // add %bh,0x43(%rdi)
@@ -23675,7 +23692,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 255 // (bad)
- .byte 127,71 // jg 70ff <.literal4+0x40b>
+ .byte 127,71 // jg 70f7 <.literal4+0x40b>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -23782,16 +23799,16 @@ BALIGN4
.byte 170 // stos %al,%es:(%rdi)
.byte 170 // stos %al,%es:(%rdi)
.byte 190,114,28,199,62 // mov $0x3ec71c72,%esi
- .byte 114,249 // jb 71d3 <.literal4+0x4df>
- .byte 127,63 // jg 721b <_sk_clut_4D_hsw+0xdc5>
+ .byte 114,249 // jb 71cb <.literal4+0x4df>
+ .byte 127,63 // jg 7213 <_sk_clut_4D_hsw+0xdc5>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 1,0 // add %eax,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 2,0 // add (%rax),%al
.byte 0,0 // add %al,(%rax)
- .byte 114,249 // jb 71e3 <.literal4+0x4ef>
- .byte 127,63 // jg 722b <_sk_clut_4D_hsw+0xdd5>
+ .byte 114,249 // jb 71db <.literal4+0x4ef>
+ .byte 127,63 // jg 7223 <_sk_clut_4D_hsw+0xdd5>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 1,0 // add %eax,(%rax)
@@ -23821,16 +23838,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007228 <_sk_clut_4D_hsw+0xa000dd2>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007228 <_sk_clut_4D_hsw+0xa000dda>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007230 <_sk_clut_4D_hsw+0x12000dda>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007230 <_sk_clut_4D_hsw+0x12000de2>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007238 <_sk_clut_4D_hsw+0x1a000de2>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007238 <_sk_clut_4D_hsw+0x1a000dea>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007240 <_sk_clut_4D_hsw+0x3000dea>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007240 <_sk_clut_4D_hsw+0x3000df2>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -23873,16 +23890,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007288 <_sk_clut_4D_hsw+0xa000e32>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007288 <_sk_clut_4D_hsw+0xa000e3a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007290 <_sk_clut_4D_hsw+0x12000e3a>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007290 <_sk_clut_4D_hsw+0x12000e42>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007298 <_sk_clut_4D_hsw+0x1a000e42>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007298 <_sk_clut_4D_hsw+0x1a000e4a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30072a0 <_sk_clut_4D_hsw+0x3000e4a>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30072a0 <_sk_clut_4D_hsw+0x3000e52>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -23925,16 +23942,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0072e8 <_sk_clut_4D_hsw+0xa000e92>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0072e8 <_sk_clut_4D_hsw+0xa000e9a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120072f0 <_sk_clut_4D_hsw+0x12000e9a>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120072f0 <_sk_clut_4D_hsw+0x12000ea2>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0072f8 <_sk_clut_4D_hsw+0x1a000ea2>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0072f8 <_sk_clut_4D_hsw+0x1a000eaa>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007300 <_sk_clut_4D_hsw+0x3000eaa>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007300 <_sk_clut_4D_hsw+0x3000eb2>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -23977,16 +23994,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007348 <_sk_clut_4D_hsw+0xa000ef2>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007348 <_sk_clut_4D_hsw+0xa000efa>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007350 <_sk_clut_4D_hsw+0x12000efa>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007350 <_sk_clut_4D_hsw+0x12000f02>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007358 <_sk_clut_4D_hsw+0x1a000f02>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007358 <_sk_clut_4D_hsw+0x1a000f0a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007360 <_sk_clut_4D_hsw+0x3000f0a>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007360 <_sk_clut_4D_hsw+0x3000f12>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -24029,16 +24046,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0073a8 <_sk_clut_4D_hsw+0xa000f52>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0073a8 <_sk_clut_4D_hsw+0xa000f5a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120073b0 <_sk_clut_4D_hsw+0x12000f5a>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120073b0 <_sk_clut_4D_hsw+0x12000f62>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0073b8 <_sk_clut_4D_hsw+0x1a000f62>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0073b8 <_sk_clut_4D_hsw+0x1a000f6a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30073c0 <_sk_clut_4D_hsw+0x3000f6a>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30073c0 <_sk_clut_4D_hsw+0x3000f72>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -24081,16 +24098,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007408 <_sk_clut_4D_hsw+0xa000fb2>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007408 <_sk_clut_4D_hsw+0xa000fba>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007410 <_sk_clut_4D_hsw+0x12000fba>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007410 <_sk_clut_4D_hsw+0x12000fc2>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007418 <_sk_clut_4D_hsw+0x1a000fc2>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007418 <_sk_clut_4D_hsw+0x1a000fca>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007420 <_sk_clut_4D_hsw+0x3000fca>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007420 <_sk_clut_4D_hsw+0x3000fd2>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -24133,16 +24150,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007468 <_sk_clut_4D_hsw+0xa001012>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007468 <_sk_clut_4D_hsw+0xa00101a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007470 <_sk_clut_4D_hsw+0x1200101a>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007470 <_sk_clut_4D_hsw+0x12001022>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007478 <_sk_clut_4D_hsw+0x1a001022>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007478 <_sk_clut_4D_hsw+0x1a00102a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007480 <_sk_clut_4D_hsw+0x300102a>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007480 <_sk_clut_4D_hsw+0x3001032>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -24185,16 +24202,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0074c8 <_sk_clut_4D_hsw+0xa001072>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0074c8 <_sk_clut_4D_hsw+0xa00107a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120074d0 <_sk_clut_4D_hsw+0x1200107a>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120074d0 <_sk_clut_4D_hsw+0x12001082>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0074d8 <_sk_clut_4D_hsw+0x1a001082>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0074d8 <_sk_clut_4D_hsw+0x1a00108a>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30074e0 <_sk_clut_4D_hsw+0x300108a>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30074e0 <_sk_clut_4D_hsw+0x3001092>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -24384,7 +24401,7 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,184,176,0,0 // vbroadcastss 0xb0b8(%rip),%ymm1 # b188 <_sk_clut_4D_avx+0x2125>
+ .byte 196,226,125,24,13,176,176,0,0 // vbroadcastss 0xb0b0(%rip),%ymm1 # b180 <_sk_clut_4D_avx+0x2125>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,88,7 // vaddps (%rdi),%ymm0,%ymm0
.byte 197,249,110,209 // vmovd %ecx,%xmm2
@@ -24393,7 +24410,7 @@ _sk_seed_shader_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,146,176,0,0 // vbroadcastss 0xb092(%rip),%ymm2 # b18c <_sk_clut_4D_avx+0x2129>
+ .byte 196,226,125,24,21,138,176,0,0 // vbroadcastss 0xb08a(%rip),%ymm2 # b184 <_sk_clut_4D_avx+0x2129>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -24417,7 +24434,7 @@ _sk_dither_avx:
.byte 196,65,121,112,201,0 // vpshufd $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 196,65,52,87,208 // vxorps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,59,176,0,0 // vbroadcastss 0xb03b(%rip),%ymm11 # b190 <_sk_clut_4D_avx+0x212d>
+ .byte 196,98,125,24,29,51,176,0,0 // vbroadcastss 0xb033(%rip),%ymm11 # b188 <_sk_clut_4D_avx+0x212d>
.byte 196,65,44,84,203 // vandps %ymm11,%ymm10,%ymm9
.byte 196,193,25,114,241,5 // vpslld $0x5,%xmm9,%xmm12
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
@@ -24428,8 +24445,8 @@ _sk_dither_avx:
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,243,4 // vpslld $0x4,%xmm11,%xmm11
.byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- .byte 196,98,125,24,37,252,175,0,0 // vbroadcastss 0xaffc(%rip),%ymm12 # b194 <_sk_clut_4D_avx+0x2131>
- .byte 196,98,125,24,45,247,175,0,0 // vbroadcastss 0xaff7(%rip),%ymm13 # b198 <_sk_clut_4D_avx+0x2135>
+ .byte 196,98,125,24,37,244,175,0,0 // vbroadcastss 0xaff4(%rip),%ymm12 # b18c <_sk_clut_4D_avx+0x2131>
+ .byte 196,98,125,24,45,239,175,0,0 // vbroadcastss 0xafef(%rip),%ymm13 # b190 <_sk_clut_4D_avx+0x2135>
.byte 196,65,44,84,245 // vandps %ymm13,%ymm10,%ymm14
.byte 196,193,1,114,246,2 // vpslld $0x2,%xmm14,%xmm15
.byte 196,67,125,25,246,1 // vextractf128 $0x1,%ymm14,%xmm14
@@ -24456,9 +24473,9 @@ _sk_dither_avx:
.byte 196,65,60,86,193 // vorps %ymm9,%ymm8,%ymm8
.byte 196,65,60,86,194 // vorps %ymm10,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,98,175,0,0 // vbroadcastss 0xaf62(%rip),%ymm9 # b19c <_sk_clut_4D_avx+0x2139>
+ .byte 196,98,125,24,13,90,175,0,0 // vbroadcastss 0xaf5a(%rip),%ymm9 # b194 <_sk_clut_4D_avx+0x2139>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,88,175,0,0 // vbroadcastss 0xaf58(%rip),%ymm9 # b1a0 <_sk_clut_4D_avx+0x213d>
+ .byte 196,98,125,24,13,80,175,0,0 // vbroadcastss 0xaf50(%rip),%ymm9 # b198 <_sk_clut_4D_avx+0x213d>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
@@ -24492,7 +24509,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,248,174,0,0 // vbroadcastss 0xaef8(%rip),%ymm3 # b1a4 <_sk_clut_4D_avx+0x2141>
+ .byte 196,226,125,24,29,240,174,0,0 // vbroadcastss 0xaef0(%rip),%ymm3 # b19c <_sk_clut_4D_avx+0x2141>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -24503,7 +24520,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,227,174,0,0 // vbroadcastss 0xaee3(%rip),%ymm0 # b1a8 <_sk_clut_4D_avx+0x2145>
+ .byte 196,226,125,24,5,219,174,0,0 // vbroadcastss 0xaedb(%rip),%ymm0 # b1a0 <_sk_clut_4D_avx+0x2145>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -24549,7 +24566,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,134,174,0,0 // vbroadcastss 0xae86(%rip),%ymm8 # b1ac <_sk_clut_4D_avx+0x2149>
+ .byte 196,98,125,24,5,126,174,0,0 // vbroadcastss 0xae7e(%rip),%ymm8 # b1a4 <_sk_clut_4D_avx+0x2149>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24570,7 +24587,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,72,174,0,0 // vbroadcastss 0xae48(%rip),%ymm9 # b1b0 <_sk_clut_4D_avx+0x214d>
+ .byte 196,98,125,24,13,64,174,0,0 // vbroadcastss 0xae40(%rip),%ymm9 # b1a8 <_sk_clut_4D_avx+0x214d>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -24612,7 +24629,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,231,173,0,0 // vbroadcastss 0xade7(%rip),%ymm8 # b1b4 <_sk_clut_4D_avx+0x2151>
+ .byte 196,98,125,24,5,223,173,0,0 // vbroadcastss 0xaddf(%rip),%ymm8 # b1ac <_sk_clut_4D_avx+0x2151>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -24625,7 +24642,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,202,173,0,0 // vbroadcastss 0xadca(%rip),%ymm0 # b1b8 <_sk_clut_4D_avx+0x2155>
+ .byte 196,226,125,24,5,194,173,0,0 // vbroadcastss 0xadc2(%rip),%ymm0 # b1b0 <_sk_clut_4D_avx+0x2155>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -24638,7 +24655,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,173,173,0,0 // vbroadcastss 0xadad(%rip),%ymm8 # b1bc <_sk_clut_4D_avx+0x2159>
+ .byte 196,98,125,24,5,165,173,0,0 // vbroadcastss 0xada5(%rip),%ymm8 # b1b4 <_sk_clut_4D_avx+0x2159>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24655,7 +24672,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,128,173,0,0 // vbroadcastss 0xad80(%rip),%ymm8 # b1c0 <_sk_clut_4D_avx+0x215d>
+ .byte 196,98,125,24,5,120,173,0,0 // vbroadcastss 0xad78(%rip),%ymm8 # b1b8 <_sk_clut_4D_avx+0x215d>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -24683,7 +24700,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,63,173,0,0 // vbroadcastss 0xad3f(%rip),%ymm8 # b1c4 <_sk_clut_4D_avx+0x2161>
+ .byte 196,98,125,24,5,55,173,0,0 // vbroadcastss 0xad37(%rip),%ymm8 # b1bc <_sk_clut_4D_avx+0x2161>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24743,7 +24760,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,142,172,0,0 // vbroadcastss 0xac8e(%rip),%ymm8 # b1c8 <_sk_clut_4D_avx+0x2165>
+ .byte 196,98,125,24,5,134,172,0,0 // vbroadcastss 0xac86(%rip),%ymm8 # b1c0 <_sk_clut_4D_avx+0x2165>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24780,7 +24797,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,14,172,0,0 // vbroadcastss 0xac0e(%rip),%ymm8 # b1cc <_sk_clut_4D_avx+0x2169>
+ .byte 196,98,125,24,5,6,172,0,0 // vbroadcastss 0xac06(%rip),%ymm8 # b1c4 <_sk_clut_4D_avx+0x2169>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24806,7 +24823,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,186,171,0,0 // vbroadcastss 0xabba(%rip),%ymm8 # b1d0 <_sk_clut_4D_avx+0x216d>
+ .byte 196,98,125,24,5,178,171,0,0 // vbroadcastss 0xabb2(%rip),%ymm8 # b1c8 <_sk_clut_4D_avx+0x216d>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24835,7 +24852,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,90,171,0,0 // vbroadcastss 0xab5a(%rip),%ymm8 # b1d4 <_sk_clut_4D_avx+0x2171>
+ .byte 196,98,125,24,5,82,171,0,0 // vbroadcastss 0xab52(%rip),%ymm8 # b1cc <_sk_clut_4D_avx+0x2171>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24858,7 +24875,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,21,171,0,0 // vbroadcastss 0xab15(%rip),%ymm8 # b1d8 <_sk_clut_4D_avx+0x2175>
+ .byte 196,98,125,24,5,13,171,0,0 // vbroadcastss 0xab0d(%rip),%ymm8 # b1d0 <_sk_clut_4D_avx+0x2175>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24869,55 +24886,55 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,0,171,0,0 // vbroadcastss 0xab00(%rip),%ymm8 # b1dc <_sk_clut_4D_avx+0x2179>
+ .byte 196,98,125,24,5,248,170,0,0 // vbroadcastss 0xaaf8(%rip),%ymm8 # b1d4 <_sk_clut_4D_avx+0x2179>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,65,124,194,226,0 // vcmpeqps %ymm10,%ymm0,%ymm12
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,228 // vmulps %ymm4,%ymm8,%ymm12
.byte 197,68,92,236 // vsubps %ymm4,%ymm7,%ymm13
.byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,20,94,232 // vdivps %ymm0,%ymm13,%ymm13
- .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13
- .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 196,65,36,88,237 // vaddps %ymm13,%ymm11,%ymm13
- .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13
- .byte 197,28,88,224 // vaddps %ymm0,%ymm12,%ymm12
- .byte 196,193,124,194,194,0 // vcmpeqps %ymm10,%ymm0,%ymm0
- .byte 196,195,21,74,196,0 // vblendvps %ymm0,%ymm12,%ymm13,%ymm0
+ .byte 197,252,83,192 // vrcpps %ymm0,%ymm0
+ .byte 197,148,89,192 // vmulps %ymm0,%ymm13,%ymm0
+ .byte 197,60,89,236 // vmulps %ymm4,%ymm8,%ymm13
+ .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
+ .byte 197,196,92,192 // vsubps %ymm0,%ymm7,%ymm0
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
+ .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0
+ .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
.byte 197,92,194,231,0 // vcmpeqps %ymm7,%ymm4,%ymm12
.byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 197,52,89,217 // vmulps %ymm1,%ymm9,%ymm11
- .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12
+ .byte 196,65,116,194,226,0 // vcmpeqps %ymm10,%ymm1,%ymm12
.byte 197,68,92,237 // vsubps %ymm5,%ymm7,%ymm13
.byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,20,94,233 // vdivps %ymm1,%ymm13,%ymm13
- .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13
- .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 196,65,36,88,237 // vaddps %ymm13,%ymm11,%ymm13
- .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13
- .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,193,116,194,202,0 // vcmpeqps %ymm10,%ymm1,%ymm1
- .byte 196,195,21,74,204,16 // vblendvps %ymm1,%ymm12,%ymm13,%ymm1
+ .byte 197,252,83,201 // vrcpps %ymm1,%ymm1
+ .byte 197,148,89,201 // vmulps %ymm1,%ymm13,%ymm1
+ .byte 197,60,89,237 // vmulps %ymm5,%ymm8,%ymm13
+ .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
+ .byte 197,196,92,201 // vsubps %ymm1,%ymm7,%ymm1
+ .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
+ .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
+ .byte 197,148,88,201 // vaddps %ymm1,%ymm13,%ymm1
+ .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
.byte 197,84,194,231,0 // vcmpeqps %ymm7,%ymm5,%ymm12
.byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
.byte 196,65,108,194,210,0 // vcmpeqps %ymm10,%ymm2,%ymm10
+ .byte 197,68,92,222 // vsubps %ymm6,%ymm7,%ymm11
+ .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
+ .byte 197,252,83,210 // vrcpps %ymm2,%ymm2
+ .byte 197,164,89,210 // vmulps %ymm2,%ymm11,%ymm2
.byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12
- .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 197,28,94,226 // vdivps %ymm2,%ymm12,%ymm12
+ .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
+ .byte 197,196,92,210 // vsubps %ymm2,%ymm7,%ymm2
+ .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
+ .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
- .byte 196,65,68,92,228 // vsubps %ymm12,%ymm7,%ymm12
- .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 196,65,52,88,228 // vaddps %ymm12,%ymm9,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,227,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm2
+ .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
.byte 197,76,194,215,0 // vcmpeqps %ymm7,%ymm6,%ymm10
.byte 197,52,88,206 // vaddps %ymm6,%ymm9,%ymm9
.byte 196,195,109,74,209,160 // vblendvps %ymm10,%ymm9,%ymm2,%ymm2
@@ -24931,13 +24948,14 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,252,169,0,0 // vbroadcastss 0xa9fc(%rip),%ymm9 # b1e0 <_sk_clut_4D_avx+0x217d>
+ .byte 196,98,125,24,13,0,170,0,0 // vbroadcastss 0xaa00(%rip),%ymm9 # b1d8 <_sk_clut_4D_avx+0x217d>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
.byte 197,100,89,228 // vmulps %ymm4,%ymm3,%ymm12
.byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13
- .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12
+ .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
+ .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13
.byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
.byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
@@ -24947,12 +24965,12 @@ _sk_colordodge_avx:
.byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0
.byte 196,195,29,74,197,0 // vblendvps %ymm0,%ymm13,%ymm12,%ymm0
.byte 196,65,92,194,224,0 // vcmpeqps %ymm8,%ymm4,%ymm12
- .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
.byte 197,100,89,229 // vmulps %ymm5,%ymm3,%ymm12
.byte 197,100,92,233 // vsubps %ymm1,%ymm3,%ymm13
- .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12
+ .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
+ .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13
.byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
.byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
@@ -24962,12 +24980,12 @@ _sk_colordodge_avx:
.byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1
.byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1
.byte 196,65,84,194,224,0 // vcmpeqps %ymm8,%ymm5,%ymm12
- .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
.byte 197,100,92,226 // vsubps %ymm2,%ymm3,%ymm12
- .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
+ .byte 196,65,124,83,228 // vrcpps %ymm12,%ymm12
+ .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 197,52,89,230 // vmulps %ymm6,%ymm9,%ymm12
.byte 196,65,68,93,219 // vminps %ymm11,%ymm7,%ymm11
.byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
@@ -24977,7 +24995,6 @@ _sk_colordodge_avx:
.byte 197,236,194,211,0 // vcmpeqps %ymm3,%ymm2,%ymm2
.byte 196,195,37,74,212,32 // vblendvps %ymm2,%ymm12,%ymm11,%ymm2
.byte 196,65,76,194,192,0 // vcmpeqps %ymm8,%ymm6,%ymm8
- .byte 197,44,88,214 // vaddps %ymm6,%ymm10,%ymm10
.byte 196,195,109,74,210,128 // vblendvps %ymm8,%ymm10,%ymm2,%ymm2
.byte 197,52,89,199 // vmulps %ymm7,%ymm9,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24988,7 +25005,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,14,169,0,0 // vbroadcastss 0xa90e(%rip),%ymm8 # b1e4 <_sk_clut_4D_avx+0x2181>
+ .byte 196,98,125,24,5,15,169,0,0 // vbroadcastss 0xa90f(%rip),%ymm8 # b1dc <_sk_clut_4D_avx+0x2181>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -25043,7 +25060,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,55,168,0,0 // vbroadcastss 0xa837(%rip),%ymm8 # b1e8 <_sk_clut_4D_avx+0x2185>
+ .byte 196,98,125,24,5,56,168,0,0 // vbroadcastss 0xa838(%rip),%ymm8 # b1e0 <_sk_clut_4D_avx+0x2185>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -25109,10 +25126,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,46,167,0,0 // vbroadcastss 0xa72e(%rip),%ymm11 # b1f0 <_sk_clut_4D_avx+0x218d>
+ .byte 196,98,125,24,29,47,167,0,0 // vbroadcastss 0xa72f(%rip),%ymm11 # b1e8 <_sk_clut_4D_avx+0x218d>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,31,167,0,0 // vbroadcastss 0xa71f(%rip),%ymm13 # b1f4 <_sk_clut_4D_avx+0x2191>
+ .byte 196,98,125,24,45,32,167,0,0 // vbroadcastss 0xa720(%rip),%ymm13 # b1ec <_sk_clut_4D_avx+0x2191>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -25123,7 +25140,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,221,166,0,0 // vbroadcastss 0xa6dd(%rip),%ymm8 # b1ec <_sk_clut_4D_avx+0x2189>
+ .byte 196,98,125,24,5,222,166,0,0 // vbroadcastss 0xa6de(%rip),%ymm8 # b1e4 <_sk_clut_4D_avx+0x2189>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -25250,12 +25267,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,172,164,0,0 // vbroadcastss 0xa4ac(%rip),%ymm14 # b1f8 <_sk_clut_4D_avx+0x2195>
+ .byte 196,98,125,24,53,173,164,0,0 // vbroadcastss 0xa4ad(%rip),%ymm14 # b1f0 <_sk_clut_4D_avx+0x2195>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,162,164,0,0 // vbroadcastss 0xa4a2(%rip),%ymm15 # b1fc <_sk_clut_4D_avx+0x2199>
+ .byte 196,98,125,24,61,163,164,0,0 // vbroadcastss 0xa4a3(%rip),%ymm15 # b1f4 <_sk_clut_4D_avx+0x2199>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,147,164,0,0 // vbroadcastss 0xa493(%rip),%ymm0 # b200 <_sk_clut_4D_avx+0x219d>
+ .byte 196,226,125,24,5,148,164,0,0 // vbroadcastss 0xa494(%rip),%ymm0 # b1f8 <_sk_clut_4D_avx+0x219d>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -25316,7 +25333,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,108,163,0,0 // vbroadcastss 0xa36c(%rip),%ymm8 # b204 <_sk_clut_4D_avx+0x21a1>
+ .byte 196,98,125,24,5,109,163,0,0 // vbroadcastss 0xa36d(%rip),%ymm8 # b1fc <_sk_clut_4D_avx+0x21a1>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -25373,12 +25390,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,122,162,0,0 // vbroadcastss 0xa27a(%rip),%ymm14 # b208 <_sk_clut_4D_avx+0x21a5>
+ .byte 196,98,125,24,53,123,162,0,0 // vbroadcastss 0xa27b(%rip),%ymm14 # b200 <_sk_clut_4D_avx+0x21a5>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,112,162,0,0 // vbroadcastss 0xa270(%rip),%ymm15 # b20c <_sk_clut_4D_avx+0x21a9>
+ .byte 196,98,125,24,61,113,162,0,0 // vbroadcastss 0xa271(%rip),%ymm15 # b204 <_sk_clut_4D_avx+0x21a9>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,97,162,0,0 // vbroadcastss 0xa261(%rip),%ymm0 # b210 <_sk_clut_4D_avx+0x21ad>
+ .byte 196,226,125,24,5,98,162,0,0 // vbroadcastss 0xa262(%rip),%ymm0 # b208 <_sk_clut_4D_avx+0x21ad>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -25439,7 +25456,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,58,161,0,0 // vbroadcastss 0xa13a(%rip),%ymm8 # b214 <_sk_clut_4D_avx+0x21b1>
+ .byte 196,98,125,24,5,59,161,0,0 // vbroadcastss 0xa13b(%rip),%ymm8 # b20c <_sk_clut_4D_avx+0x21b1>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -25468,12 +25485,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,208,160,0,0 // vbroadcastss 0xa0d0(%rip),%ymm13 # b218 <_sk_clut_4D_avx+0x21b5>
+ .byte 196,98,125,24,45,209,160,0,0 // vbroadcastss 0xa0d1(%rip),%ymm13 # b210 <_sk_clut_4D_avx+0x21b5>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,198,160,0,0 // vbroadcastss 0xa0c6(%rip),%ymm14 # b21c <_sk_clut_4D_avx+0x21b9>
+ .byte 196,98,125,24,53,199,160,0,0 // vbroadcastss 0xa0c7(%rip),%ymm14 # b214 <_sk_clut_4D_avx+0x21b9>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,183,160,0,0 // vbroadcastss 0xa0b7(%rip),%ymm15 # b220 <_sk_clut_4D_avx+0x21bd>
+ .byte 196,98,125,24,61,184,160,0,0 // vbroadcastss 0xa0b8(%rip),%ymm15 # b218 <_sk_clut_4D_avx+0x21bd>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25536,7 +25553,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,126,159,0,0 // vbroadcastss 0x9f7e(%rip),%ymm0 # b224 <_sk_clut_4D_avx+0x21c1>
+ .byte 196,226,125,24,5,127,159,0,0 // vbroadcastss 0x9f7f(%rip),%ymm0 # b21c <_sk_clut_4D_avx+0x21c1>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25566,12 +25583,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,16,159,0,0 // vbroadcastss 0x9f10(%rip),%ymm13 # b228 <_sk_clut_4D_avx+0x21c5>
+ .byte 196,98,125,24,45,17,159,0,0 // vbroadcastss 0x9f11(%rip),%ymm13 # b220 <_sk_clut_4D_avx+0x21c5>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,6,159,0,0 // vbroadcastss 0x9f06(%rip),%ymm14 # b22c <_sk_clut_4D_avx+0x21c9>
+ .byte 196,98,125,24,53,7,159,0,0 // vbroadcastss 0x9f07(%rip),%ymm14 # b224 <_sk_clut_4D_avx+0x21c9>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,247,158,0,0 // vbroadcastss 0x9ef7(%rip),%ymm15 # b230 <_sk_clut_4D_avx+0x21cd>
+ .byte 196,98,125,24,61,248,158,0,0 // vbroadcastss 0x9ef8(%rip),%ymm15 # b228 <_sk_clut_4D_avx+0x21cd>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25634,7 +25651,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,190,157,0,0 // vbroadcastss 0x9dbe(%rip),%ymm0 # b234 <_sk_clut_4D_avx+0x21d1>
+ .byte 196,226,125,24,5,191,157,0,0 // vbroadcastss 0x9dbf(%rip),%ymm0 # b22c <_sk_clut_4D_avx+0x21d1>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25667,9 +25684,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,43,1,0,0 // jne 160d <_sk_srcover_rgba_8888_avx+0x14c>
+ .byte 15,133,43,1,0,0 // jne 1604 <_sk_srcover_rgba_8888_avx+0x14c>
.byte 196,65,125,16,4,153 // vmovupd (%r9,%rbx,4),%ymm8
- .byte 197,125,40,13,240,161,0,0 // vmovapd 0xa1f0(%rip),%ymm9 # b6e0 <_sk_clut_4D_avx+0x267d>
+ .byte 197,125,40,13,217,161,0,0 // vmovapd 0xa1d9(%rip),%ymm9 # b6c0 <_sk_clut_4D_avx+0x2665>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -25687,9 +25704,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,231,156,0,0 // vbroadcastss 0x9ce7(%rip),%ymm8 # b238 <_sk_clut_4D_avx+0x21d5>
+ .byte 196,98,125,24,5,232,156,0,0 // vbroadcastss 0x9ce8(%rip),%ymm8 # b230 <_sk_clut_4D_avx+0x21d5>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,222,156,0,0 // vbroadcastss 0x9cde(%rip),%ymm9 # b23c <_sk_clut_4D_avx+0x21d9>
+ .byte 196,98,125,24,13,223,156,0,0 // vbroadcastss 0x9cdf(%rip),%ymm9 # b234 <_sk_clut_4D_avx+0x21d9>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -25722,7 +25739,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,67 // jne 1645 <_sk_srcover_rgba_8888_avx+0x184>
+ .byte 117,67 // jne 163c <_sk_srcover_rgba_8888_avx+0x184>
.byte 196,65,124,17,4,153 // vmovups %ymm8,(%r9,%rbx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -25732,33 +25749,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,194,254,255,255 // ja 14e8 <_sk_srcover_rgba_8888_avx+0x27>
+ .byte 15,135,194,254,255,255 // ja 14df <_sk_srcover_rgba_8888_avx+0x27>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,3,1,0,0 // lea 0x103(%rip),%r11 # 1734 <_sk_srcover_rgba_8888_avx+0x273>
+ .byte 76,141,29,4,1,0,0 // lea 0x104(%rip),%r11 # 172c <_sk_srcover_rgba_8888_avx+0x274>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,4,153 // vmovss (%r9,%rbx,4),%xmm8
- .byte 233,163,254,255,255 // jmpq 14e8 <_sk_srcover_rgba_8888_avx+0x27>
+ .byte 233,163,254,255,255 // jmpq 14df <_sk_srcover_rgba_8888_avx+0x27>
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,179 // ja 1608 <_sk_srcover_rgba_8888_avx+0x147>
+ .byte 119,179 // ja 15ff <_sk_srcover_rgba_8888_avx+0x147>
.byte 65,15,182,194 // movzbl %r10b,%eax
- .byte 76,141,21,240,0,0,0 // lea 0xf0(%rip),%r10 # 1750 <_sk_srcover_rgba_8888_avx+0x28f>
+ .byte 76,141,21,241,0,0,0 // lea 0xf1(%rip),%r10 # 1748 <_sk_srcover_rgba_8888_avx+0x290>
.byte 73,99,4,130 // movslq (%r10,%rax,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,151 // jmp 1608 <_sk_srcover_rgba_8888_avx+0x147>
+ .byte 235,151 // jmp 15ff <_sk_srcover_rgba_8888_avx+0x147>
.byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,193,123,16,36,153 // vmovsd (%r9,%rbx,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,80,254,255,255 // jmpq 14e8 <_sk_srcover_rgba_8888_avx+0x27>
+ .byte 233,80,254,255,255 // jmpq 14df <_sk_srcover_rgba_8888_avx+0x27>
.byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -25772,10 +25789,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,193,121,16,36,153 // vmovupd (%r9,%rbx,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,251,253,255,255 // jmpq 14e8 <_sk_srcover_rgba_8888_avx+0x27>
+ .byte 233,251,253,255,255 // jmpq 14df <_sk_srcover_rgba_8888_avx+0x27>
.byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
.byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 233,8,255,255,255 // jmpq 1608 <_sk_srcover_rgba_8888_avx+0x147>
+ .byte 233,8,255,255,255 // jmpq 15ff <_sk_srcover_rgba_8888_avx+0x147>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -25783,33 +25800,35 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,122,17,76,153,16 // vmovss %xmm9,0x10(%r9,%rbx,4)
.byte 196,65,121,17,4,153 // vmovupd %xmm8,(%r9,%rbx,4)
- .byte 233,212,254,255,255 // jmpq 1608 <_sk_srcover_rgba_8888_avx+0x147>
- .byte 6 // (bad)
+ .byte 233,212,254,255,255 // jmpq 15ff <_sk_srcover_rgba_8888_avx+0x147>
+ .byte 144 // nop
+ .byte 5,255,255,255,82 // add $0x52ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,83,255 // callq *-0x1(%rbx)
.byte 255 // (bad)
+ .byte 60,255 // cmp $0xff,%al
.byte 255 // (bad)
- .byte 61,255,255,255,168 // cmp $0xa8ffffff,%eax
+ .byte 255,167,255,255,255,147 // jmpq *-0x6c000001(%rdi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,148,255,255,255,128,255 // callq *-0x7f0001(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,25 // lcall *(%rcx)
+ .byte 127,255 // jg 1741 <_sk_srcover_rgba_8888_avx+0x289>
.byte 255 // (bad)
+ .byte 255,99,255 // jmpq *-0x1(%rbx)
+ .byte 255 // (bad)
+ .byte 255,24 // lcall *(%rax)
.byte 255 // (bad)
- .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp)
.byte 255 // (bad)
+ .byte 255,164,255,255,255,156,255 // jmpq *-0x630001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 217,255 // fcos
+ .byte 216,255 // fdivr %st(7),%st
.byte 255 // (bad)
- .byte 255,204 // dec %esp
+ .byte 255,203 // dec %ebx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
+ .byte 189,255,255,255,175 // mov $0xafffffff,%ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -25830,7 +25849,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,174,154,0,0 // vbroadcastss 0x9aae(%rip),%ymm8 # b240 <_sk_clut_4D_avx+0x21dd>
+ .byte 196,98,125,24,5,174,154,0,0 // vbroadcastss 0x9aae(%rip),%ymm8 # b238 <_sk_clut_4D_avx+0x21dd>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -25842,7 +25861,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,145,154,0,0 // vbroadcastss 0x9a91(%rip),%ymm8 # b244 <_sk_clut_4D_avx+0x21e1>
+ .byte 196,98,125,24,5,145,154,0,0 // vbroadcastss 0x9a91(%rip),%ymm8 # b23c <_sk_clut_4D_avx+0x21e1>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -25854,7 +25873,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,119,154,0,0 // vbroadcastss 0x9a77(%rip),%ymm8 # b248 <_sk_clut_4D_avx+0x21e5>
+ .byte 196,98,125,24,5,119,154,0,0 // vbroadcastss 0x9a77(%rip),%ymm8 # b240 <_sk_clut_4D_avx+0x21e5>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -25887,7 +25906,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,54,154,0,0 // vbroadcastss 0x9a36(%rip),%ymm8 # b24c <_sk_clut_4D_avx+0x21e9>
+ .byte 196,98,125,24,5,54,154,0,0 // vbroadcastss 0x9a36(%rip),%ymm8 # b244 <_sk_clut_4D_avx+0x21e9>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -25943,7 +25962,7 @@ FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,202,153,0,0 // vbroadcastss 0x99ca(%rip),%ymm10 # b250 <_sk_clut_4D_avx+0x21ed>
+ .byte 196,98,125,24,21,202,153,0,0 // vbroadcastss 0x99ca(%rip),%ymm10 # b248 <_sk_clut_4D_avx+0x21ed>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -25956,17 +25975,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,171,153,0,0 // vbroadcastss 0x99ab(%rip),%ymm8 # b254 <_sk_clut_4D_avx+0x21f1>
+ .byte 196,98,125,24,5,171,153,0,0 // vbroadcastss 0x99ab(%rip),%ymm8 # b24c <_sk_clut_4D_avx+0x21f1>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,157,153,0,0 // vbroadcastss 0x999d(%rip),%ymm11 # b258 <_sk_clut_4D_avx+0x21f5>
+ .byte 196,98,125,24,29,157,153,0,0 // vbroadcastss 0x999d(%rip),%ymm11 # b250 <_sk_clut_4D_avx+0x21f5>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,147,153,0,0 // vbroadcastss 0x9993(%rip),%ymm13 # b25c <_sk_clut_4D_avx+0x21f9>
+ .byte 196,98,125,24,45,147,153,0,0 // vbroadcastss 0x9993(%rip),%ymm13 # b254 <_sk_clut_4D_avx+0x21f9>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,132,153,0,0 // vbroadcastss 0x9984(%rip),%ymm12 # b260 <_sk_clut_4D_avx+0x21fd>
+ .byte 196,98,125,24,37,132,153,0,0 // vbroadcastss 0x9984(%rip),%ymm12 # b258 <_sk_clut_4D_avx+0x21fd>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,122,153,0,0 // vbroadcastss 0x997a(%rip),%ymm14 # b264 <_sk_clut_4D_avx+0x2201>
+ .byte 196,98,125,24,53,122,153,0,0 // vbroadcastss 0x997a(%rip),%ymm14 # b25c <_sk_clut_4D_avx+0x2201>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -25992,17 +26011,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,19,153,0,0 // vbroadcastss 0x9913(%rip),%ymm8 # b268 <_sk_clut_4D_avx+0x2205>
+ .byte 196,98,125,24,5,19,153,0,0 // vbroadcastss 0x9913(%rip),%ymm8 # b260 <_sk_clut_4D_avx+0x2205>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,5,153,0,0 // vbroadcastss 0x9905(%rip),%ymm11 # b26c <_sk_clut_4D_avx+0x2209>
+ .byte 196,98,125,24,29,5,153,0,0 // vbroadcastss 0x9905(%rip),%ymm11 # b264 <_sk_clut_4D_avx+0x2209>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,251,152,0,0 // vbroadcastss 0x98fb(%rip),%ymm13 # b270 <_sk_clut_4D_avx+0x220d>
+ .byte 196,98,125,24,45,251,152,0,0 // vbroadcastss 0x98fb(%rip),%ymm13 # b268 <_sk_clut_4D_avx+0x220d>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,236,152,0,0 // vbroadcastss 0x98ec(%rip),%ymm12 # b274 <_sk_clut_4D_avx+0x2211>
+ .byte 196,98,125,24,37,236,152,0,0 // vbroadcastss 0x98ec(%rip),%ymm12 # b26c <_sk_clut_4D_avx+0x2211>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,226,152,0,0 // vbroadcastss 0x98e2(%rip),%ymm14 # b278 <_sk_clut_4D_avx+0x2215>
+ .byte 196,98,125,24,53,226,152,0,0 // vbroadcastss 0x98e2(%rip),%ymm14 # b270 <_sk_clut_4D_avx+0x2215>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -26029,20 +26048,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,119,152,0,0 // vbroadcastss 0x9877(%rip),%ymm8 # b27c <_sk_clut_4D_avx+0x2219>
+ .byte 196,98,125,24,5,119,152,0,0 // vbroadcastss 0x9877(%rip),%ymm8 # b274 <_sk_clut_4D_avx+0x2219>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,109,152,0,0 // vbroadcastss 0x986d(%rip),%ymm11 # b280 <_sk_clut_4D_avx+0x221d>
+ .byte 196,98,125,24,29,109,152,0,0 // vbroadcastss 0x986d(%rip),%ymm11 # b278 <_sk_clut_4D_avx+0x221d>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,99,152,0,0 // vbroadcastss 0x9863(%rip),%ymm13 # b284 <_sk_clut_4D_avx+0x2221>
+ .byte 196,98,125,24,45,99,152,0,0 // vbroadcastss 0x9863(%rip),%ymm13 # b27c <_sk_clut_4D_avx+0x2221>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,84,152,0,0 // vbroadcastss 0x9854(%rip),%ymm14 # b288 <_sk_clut_4D_avx+0x2225>
+ .byte 196,98,125,24,53,84,152,0,0 // vbroadcastss 0x9854(%rip),%ymm14 # b280 <_sk_clut_4D_avx+0x2225>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,74,152,0,0 // vbroadcastss 0x984a(%rip),%ymm15 # b28c <_sk_clut_4D_avx+0x2229>
+ .byte 196,98,125,24,61,74,152,0,0 // vbroadcastss 0x984a(%rip),%ymm15 # b284 <_sk_clut_4D_avx+0x2229>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,54,152,0,0 // vbroadcastss 0x9836(%rip),%ymm12 # b290 <_sk_clut_4D_avx+0x222d>
+ .byte 196,98,125,24,37,54,152,0,0 // vbroadcastss 0x9836(%rip),%ymm12 # b288 <_sk_clut_4D_avx+0x222d>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -26079,7 +26098,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,124,93,201 // vminps %ymm1,%ymm0,%ymm9
.byte 197,52,93,202 // vminps %ymm2,%ymm9,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,156,151,0,0 // vbroadcastss 0x979c(%rip),%ymm11 # b294 <_sk_clut_4D_avx+0x2231>
+ .byte 196,98,125,24,29,156,151,0,0 // vbroadcastss 0x979c(%rip),%ymm11 # b28c <_sk_clut_4D_avx+0x2231>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -26089,19 +26108,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,117,151,0,0 // vbroadcastss 0x9775(%rip),%ymm11 # b2a0 <_sk_clut_4D_avx+0x223d>
+ .byte 196,98,125,24,29,117,151,0,0 // vbroadcastss 0x9775(%rip),%ymm11 # b298 <_sk_clut_4D_avx+0x223d>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,99,151,0,0 // vbroadcastss 0x9763(%rip),%ymm11 # b29c <_sk_clut_4D_avx+0x2239>
+ .byte 196,98,125,24,29,99,151,0,0 // vbroadcastss 0x9763(%rip),%ymm11 # b294 <_sk_clut_4D_avx+0x2239>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,75,151,0,0 // vbroadcastss 0x974b(%rip),%ymm2 # b298 <_sk_clut_4D_avx+0x2235>
+ .byte 196,226,125,24,21,75,151,0,0 // vbroadcastss 0x974b(%rip),%ymm2 # b290 <_sk_clut_4D_avx+0x2235>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,50,151,0,0 // vbroadcastss 0x9732(%rip),%ymm12 # b2a8 <_sk_clut_4D_avx+0x2245>
+ .byte 196,98,125,24,37,50,151,0,0 // vbroadcastss 0x9732(%rip),%ymm12 # b2a0 <_sk_clut_4D_avx+0x2245>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -26111,7 +26130,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,245,150,0,0 // vbroadcastss 0x96f5(%rip),%ymm8 # b2a4 <_sk_clut_4D_avx+0x2241>
+ .byte 196,98,125,24,5,245,150,0,0 // vbroadcastss 0x96f5(%rip),%ymm8 # b29c <_sk_clut_4D_avx+0x2241>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -26128,7 +26147,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,194,150,0,0 // vbroadcastss 0x96c2(%rip),%ymm8 # b2ac <_sk_clut_4D_avx+0x2249>
+ .byte 196,98,125,24,5,194,150,0,0 // vbroadcastss 0x96c2(%rip),%ymm8 # b2a4 <_sk_clut_4D_avx+0x2249>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -26136,23 +26155,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,156,150,0,0 // vbroadcastss 0x969c(%rip),%ymm11 # b2b0 <_sk_clut_4D_avx+0x224d>
+ .byte 196,98,125,24,29,156,150,0,0 // vbroadcastss 0x969c(%rip),%ymm11 # b2a8 <_sk_clut_4D_avx+0x224d>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,134,150,0,0 // vbroadcastss 0x9686(%rip),%ymm12 # b2b8 <_sk_clut_4D_avx+0x2255>
+ .byte 196,98,125,24,37,134,150,0,0 // vbroadcastss 0x9686(%rip),%ymm12 # b2b0 <_sk_clut_4D_avx+0x2255>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,124,150,0,0 // vbroadcastss 0x967c(%rip),%ymm13 # b2bc <_sk_clut_4D_avx+0x2259>
+ .byte 196,98,125,24,45,124,150,0,0 // vbroadcastss 0x967c(%rip),%ymm13 # b2b4 <_sk_clut_4D_avx+0x2259>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,93,150,0,0 // vbroadcastss 0x965d(%rip),%ymm1 # b2b4 <_sk_clut_4D_avx+0x2251>
+ .byte 196,226,125,24,13,93,150,0,0 // vbroadcastss 0x965d(%rip),%ymm1 # b2ac <_sk_clut_4D_avx+0x2251>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,72,150,0,0 // vbroadcastss 0x9648(%rip),%ymm14 # b2c0 <_sk_clut_4D_avx+0x225d>
+ .byte 196,98,125,24,53,72,150,0,0 // vbroadcastss 0x9648(%rip),%ymm14 # b2b8 <_sk_clut_4D_avx+0x225d>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -26171,7 +26190,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,234,149,0,0 // vbroadcastss 0x95ea(%rip),%ymm0 # b2c4 <_sk_clut_4D_avx+0x2261>
+ .byte 196,226,125,24,5,234,149,0,0 // vbroadcastss 0x95ea(%rip),%ymm0 # b2bc <_sk_clut_4D_avx+0x2261>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -26226,15 +26245,15 @@ _sk_scale_u8_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,75 // jne 1de1 <_sk_scale_u8_avx+0x64>
+ .byte 117,75 // jne 1dd9 <_sk_scale_u8_avx+0x64>
.byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8
- .byte 197,57,219,5,60,154,0,0 // vpand 0x9a3c(%rip),%xmm8,%xmm8 # b7e0 <_sk_clut_4D_avx+0x277d>
+ .byte 197,57,219,5,36,154,0,0 // vpand 0x9a24(%rip),%xmm8,%xmm8 # b7c0 <_sk_clut_4D_avx+0x2765>
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,57,105,201 // vpunpckhwd %xmm9,%xmm8,%xmm9
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,1,149,0,0 // vbroadcastss 0x9501(%rip),%ymm9 # b2c8 <_sk_clut_4D_avx+0x2265>
+ .byte 196,98,125,24,13,1,149,0,0 // vbroadcastss 0x9501(%rip),%ymm9 # b2c0 <_sk_clut_4D_avx+0x2265>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -26248,15 +26267,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,166 // ja 1d9c <_sk_scale_u8_avx+0x1f>
+ .byte 119,166 // ja 1d94 <_sk_scale_u8_avx+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,123,0,0,0 // lea 0x7b(%rip),%r11 # 1e7c <_sk_scale_u8_avx+0xff>
+ .byte 76,141,29,123,0,0,0 // lea 0x7b(%rip),%r11 # 1e74 <_sk_scale_u8_avx+0xff>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 1d9c <_sk_scale_u8_avx+0x1f>
+ .byte 235,135 // jmp 1d94 <_sk_scale_u8_avx+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -26264,7 +26283,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 1d9c <_sk_scale_u8_avx+0x1f>
+ .byte 233,94,255,255,255 // jmpq 1d94 <_sk_scale_u8_avx+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -26275,7 +26294,7 @@ _sk_scale_u8_avx:
.byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 1d9c <_sk_scale_u8_avx+0x1f>
+ .byte 233,34,255,255,255 // jmpq 1d94 <_sk_scale_u8_avx+0x1f>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -26283,7 +26302,7 @@ _sk_scale_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde001e8c <_sk_clut_4D_avx+0xffffffffddff8e29>
+ .byte 232,255,255,255,221 // callq ffffffffde001e84 <_sk_clut_4D_avx+0xffffffffddff8e29>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -26327,15 +26346,15 @@ _sk_lerp_u8_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,111 // jne 1f5f <_sk_lerp_u8_avx+0x88>
+ .byte 117,111 // jne 1f57 <_sk_lerp_u8_avx+0x88>
.byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8
- .byte 197,57,219,5,242,152,0,0 // vpand 0x98f2(%rip),%xmm8,%xmm8 # b7f0 <_sk_clut_4D_avx+0x278d>
+ .byte 197,57,219,5,218,152,0,0 // vpand 0x98da(%rip),%xmm8,%xmm8 # b7d0 <_sk_clut_4D_avx+0x2775>
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,57,105,201 // vpunpckhwd %xmm9,%xmm8,%xmm9
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,171,147,0,0 // vbroadcastss 0x93ab(%rip),%ymm9 # b2cc <_sk_clut_4D_avx+0x2269>
+ .byte 196,98,125,24,13,171,147,0,0 // vbroadcastss 0x93ab(%rip),%ymm9 # b2c4 <_sk_clut_4D_avx+0x2269>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -26357,15 +26376,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,130 // ja 1ef6 <_sk_lerp_u8_avx+0x1f>
+ .byte 119,130 // ja 1eee <_sk_lerp_u8_avx+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,125,0,0,0 // lea 0x7d(%rip),%r11 # 1ffc <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,29,125,0,0,0 // lea 0x7d(%rip),%r11 # 1ff4 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 1ef6 <_sk_lerp_u8_avx+0x1f>
+ .byte 233,96,255,255,255 // jmpq 1eee <_sk_lerp_u8_avx+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -26373,7 +26392,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 1ef6 <_sk_lerp_u8_avx+0x1f>
+ .byte 233,55,255,255,255 // jmpq 1eee <_sk_lerp_u8_avx+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -26384,7 +26403,7 @@ _sk_lerp_u8_avx:
.byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 1ef6 <_sk_lerp_u8_avx+0x1f>
+ .byte 233,251,254,255,255 // jmpq 1eee <_sk_lerp_u8_avx+0x1f>
.byte 144 // nop
.byte 140,255 // mov %?,%edi
.byte 255 // (bad)
@@ -26392,7 +26411,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00200c <_sk_clut_4D_avx+0xffffffffdeff8fa9>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf002004 <_sk_clut_4D_avx+0xffffffffdeff8fa9>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -26416,26 +26435,26 @@ _sk_lerp_565_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,209,0,0,0 // jne 2109 <_sk_lerp_565_avx+0xf1>
+ .byte 15,133,209,0,0,0 // jne 2101 <_sk_lerp_565_avx+0xf1>
.byte 196,65,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,57,105,201 // vpunpckhwd %xmm9,%xmm8,%xmm9
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,116,146,0,0 // vbroadcastss 0x9274(%rip),%ymm9 # b2d0 <_sk_clut_4D_avx+0x226d>
+ .byte 196,98,125,24,13,116,146,0,0 // vbroadcastss 0x9274(%rip),%ymm9 # b2c8 <_sk_clut_4D_avx+0x226d>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,101,146,0,0 // vbroadcastss 0x9265(%rip),%ymm10 # b2d4 <_sk_clut_4D_avx+0x2271>
+ .byte 196,98,125,24,21,101,146,0,0 // vbroadcastss 0x9265(%rip),%ymm10 # b2cc <_sk_clut_4D_avx+0x2271>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,91,146,0,0 // vbroadcastss 0x925b(%rip),%ymm10 # b2d8 <_sk_clut_4D_avx+0x2275>
+ .byte 196,98,125,24,21,91,146,0,0 // vbroadcastss 0x925b(%rip),%ymm10 # b2d0 <_sk_clut_4D_avx+0x2275>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,76,146,0,0 // vbroadcastss 0x924c(%rip),%ymm11 # b2dc <_sk_clut_4D_avx+0x2279>
+ .byte 196,98,125,24,29,76,146,0,0 // vbroadcastss 0x924c(%rip),%ymm11 # b2d4 <_sk_clut_4D_avx+0x2279>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,66,146,0,0 // vbroadcastss 0x9242(%rip),%ymm11 # b2e0 <_sk_clut_4D_avx+0x227d>
+ .byte 196,98,125,24,29,66,146,0,0 // vbroadcastss 0x9242(%rip),%ymm11 # b2d8 <_sk_clut_4D_avx+0x227d>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,51,146,0,0 // vbroadcastss 0x9233(%rip),%ymm11 # b2e4 <_sk_clut_4D_avx+0x2281>
+ .byte 196,98,125,24,29,51,146,0,0 // vbroadcastss 0x9233(%rip),%ymm11 # b2dc <_sk_clut_4D_avx+0x2281>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
@@ -26463,27 +26482,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,28,255,255,255 // ja 203e <_sk_lerp_565_avx+0x26>
+ .byte 15,135,28,255,255,255 // ja 2036 <_sk_lerp_565_avx+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 2190 <_sk_lerp_565_avx+0x178>
+ .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 2188 <_sk_lerp_565_avx+0x178>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,250,254,255,255 // jmpq 203e <_sk_lerp_565_avx+0x26>
+ .byte 233,250,254,255,255 // jmpq 2036 <_sk_lerp_565_avx+0x26>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,220,254,255,255 // jmpq 203e <_sk_lerp_565_avx+0x26>
+ .byte 233,220,254,255,255 // jmpq 2036 <_sk_lerp_565_avx+0x26>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm8,%xmm8
.byte 196,65,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,174,254,255,255 // jmpq 203e <_sk_lerp_565_avx+0x26>
+ .byte 233,174,254,255,255 // jmpq 2036 <_sk_lerp_565_avx+0x26>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -26511,9 +26530,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,8 // mov (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,4,2,0,0 // jne 23c4 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 23bc <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,145 // vmovupd (%r9,%rdx,4),%ymm10
- .byte 197,125,40,13,50,149,0,0 // vmovapd 0x9532(%rip),%ymm9 # b700 <_sk_clut_4D_avx+0x269d>
+ .byte 197,125,40,13,26,149,0,0 // vmovapd 0x951a(%rip),%ymm9 # b6e0 <_sk_clut_4D_avx+0x2685>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -26605,7 +26624,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,50,143,0,0 // vbroadcastss 0x8f32(%rip),%ymm7 # b2e8 <_sk_clut_4D_avx+0x2285>
+ .byte 196,226,125,24,61,50,143,0,0 // vbroadcastss 0x8f32(%rip),%ymm7 # b2e0 <_sk_clut_4D_avx+0x2285>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -26615,21 +26634,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,233,253,255,255 // ja 21c6 <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 21be <_sk_load_tables_avx+0x1a>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,148,0,0,0 // lea 0x94(%rip),%r11 # 247c <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,29,148,0,0,0 // lea 0x94(%rip),%r11 # 2474 <_sk_load_tables_avx+0x2d0>
.byte 79,99,20,147 // movslq (%r11,%r10,4),%r10
.byte 77,1,218 // add %r11,%r10
.byte 65,255,226 // jmpq *%r10
.byte 196,65,122,16,20,145 // vmovss (%r9,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 21c6 <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 21be <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,145,8 // vmovd 0x8(%r9,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,145 // vmovsd (%r9,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 21c6 <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 21be <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,145,24 // vmovd 0x18(%r9,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -26643,9 +26662,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,145 // vmovupd (%r9,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 21c6 <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 21be <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 247d <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 2475 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -26674,7 +26693,7 @@ _sk_load_tables_u16_be_avx:
.byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10
.byte 77,133,192 // test %r8,%r8
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 15,133,84,2,0,0 // jne 2708 <_sk_load_tables_u16_be_avx+0x270>
+ .byte 15,133,84,2,0,0 // jne 2700 <_sk_load_tables_u16_be_avx+0x270>
.byte 196,1,121,16,4,81 // vmovupd (%r9,%r10,2),%xmm8
.byte 196,129,121,16,84,81,16 // vmovupd 0x10(%r9,%r10,2),%xmm2
.byte 196,129,121,16,92,81,32 // vmovupd 0x20(%r9,%r10,2),%xmm3
@@ -26689,7 +26708,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,177,108,200 // vpunpcklqdq %xmm0,%xmm9,%xmm1
.byte 197,49,109,224 // vpunpckhqdq %xmm0,%xmm9,%xmm12
- .byte 197,121,111,21,255,146,0,0 // vmovdqa 0x92ff(%rip),%xmm10 # b800 <_sk_clut_4D_avx+0x279d>
+ .byte 197,121,111,21,231,146,0,0 // vmovdqa 0x92e7(%rip),%xmm10 # b7e0 <_sk_clut_4D_avx+0x2785>
.byte 196,193,113,219,202 // vpand %xmm10,%xmm1,%xmm1
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,113,105,209 // vpunpckhwd %xmm9,%xmm1,%xmm2
@@ -26787,7 +26806,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,242,139,0,0 // vbroadcastss 0x8bf2(%rip),%ymm7 # b2ec <_sk_clut_4D_avx+0x2289>
+ .byte 196,226,125,24,61,242,139,0,0 // vbroadcastss 0x8bf2(%rip),%ymm7 # b2e4 <_sk_clut_4D_avx+0x2289>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -26795,29 +26814,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,81 // vmovsd (%r9,%r10,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 276e <_sk_load_tables_u16_be_avx+0x2d6>
+ .byte 116,85 // je 2766 <_sk_load_tables_u16_be_avx+0x2d6>
.byte 196,1,57,22,68,81,8 // vmovhpd 0x8(%r9,%r10,2),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 276e <_sk_load_tables_u16_be_avx+0x2d6>
+ .byte 114,72 // jb 2766 <_sk_load_tables_u16_be_avx+0x2d6>
.byte 196,129,123,16,84,81,16 // vmovsd 0x10(%r9,%r10,2),%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 277b <_sk_load_tables_u16_be_avx+0x2e3>
+ .byte 116,72 // je 2773 <_sk_load_tables_u16_be_avx+0x2e3>
.byte 196,129,105,22,84,81,24 // vmovhpd 0x18(%r9,%r10,2),%xmm2,%xmm2
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 277b <_sk_load_tables_u16_be_avx+0x2e3>
+ .byte 114,59 // jb 2773 <_sk_load_tables_u16_be_avx+0x2e3>
.byte 196,129,123,16,92,81,32 // vmovsd 0x20(%r9,%r10,2),%xmm3
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,126,253,255,255 // je 24cf <_sk_load_tables_u16_be_avx+0x37>
+ .byte 15,132,126,253,255,255 // je 24c7 <_sk_load_tables_u16_be_avx+0x37>
.byte 196,129,97,22,92,81,40 // vmovhpd 0x28(%r9,%r10,2),%xmm3,%xmm3
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,109,253,255,255 // jb 24cf <_sk_load_tables_u16_be_avx+0x37>
+ .byte 15,130,109,253,255,255 // jb 24c7 <_sk_load_tables_u16_be_avx+0x37>
.byte 196,1,122,126,76,81,48 // vmovq 0x30(%r9,%r10,2),%xmm9
- .byte 233,97,253,255,255 // jmpq 24cf <_sk_load_tables_u16_be_avx+0x37>
+ .byte 233,97,253,255,255 // jmpq 24c7 <_sk_load_tables_u16_be_avx+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,84,253,255,255 // jmpq 24cf <_sk_load_tables_u16_be_avx+0x37>
+ .byte 233,84,253,255,255 // jmpq 24c7 <_sk_load_tables_u16_be_avx+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,75,253,255,255 // jmpq 24cf <_sk_load_tables_u16_be_avx+0x37>
+ .byte 233,75,253,255,255 // jmpq 24c7 <_sk_load_tables_u16_be_avx+0x37>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -26829,7 +26848,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 77,133,192 // test %r8,%r8
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,71,2,0,0 // jne 29e9 <_sk_load_tables_rgb_u16_be_avx+0x265>
+ .byte 15,133,71,2,0,0 // jne 29e1 <_sk_load_tables_rgb_u16_be_avx+0x265>
.byte 196,129,122,111,4,81 // vmovdqu (%r9,%r10,2),%xmm0
.byte 196,129,122,111,84,81,12 // vmovdqu 0xc(%r9,%r10,2),%xmm2
.byte 196,129,122,111,76,81,24 // vmovdqu 0x18(%r9,%r10,2),%xmm1
@@ -26850,7 +26869,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,185,108,218 // vpunpcklqdq %xmm2,%xmm8,%xmm3
.byte 197,57,109,218 // vpunpckhqdq %xmm2,%xmm8,%xmm11
.byte 197,121,108,193 // vpunpcklqdq %xmm1,%xmm0,%xmm8
- .byte 197,121,111,13,4,144,0,0 // vmovdqa 0x9004(%rip),%xmm9 # b810 <_sk_clut_4D_avx+0x27ad>
+ .byte 197,121,111,13,236,143,0,0 // vmovdqa 0x8fec(%rip),%xmm9 # b7f0 <_sk_clut_4D_avx+0x2795>
.byte 196,193,97,219,193 // vpand %xmm9,%xmm3,%xmm0
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1
@@ -26940,50 +26959,50 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,195,105,33,211,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm2
.byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,21,137,0,0 // vbroadcastss 0x8915(%rip),%ymm3 # b2f0 <_sk_clut_4D_avx+0x228d>
+ .byte 196,226,125,24,29,21,137,0,0 // vbroadcastss 0x8915(%rip),%ymm3 # b2e8 <_sk_clut_4D_avx+0x228d>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,81 // vmovd (%r9,%r10,2),%xmm0
.byte 196,129,121,196,68,81,4,2 // vpinsrw $0x2,0x4(%r9,%r10,2),%xmm0,%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,5 // jne 2a02 <_sk_load_tables_rgb_u16_be_avx+0x27e>
- .byte 233,212,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 117,5 // jne 29fa <_sk_load_tables_rgb_u16_be_avx+0x27e>
+ .byte 233,212,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
.byte 196,129,121,110,76,81,6 // vmovd 0x6(%r9,%r10,2),%xmm1
.byte 196,1,113,196,68,81,10,2 // vpinsrw $0x2,0xa(%r9,%r10,2),%xmm1,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,26 // jb 2a31 <_sk_load_tables_rgb_u16_be_avx+0x2ad>
+ .byte 114,26 // jb 2a29 <_sk_load_tables_rgb_u16_be_avx+0x2ad>
.byte 196,129,121,110,76,81,12 // vmovd 0xc(%r9,%r10,2),%xmm1
.byte 196,129,113,196,84,81,16,2 // vpinsrw $0x2,0x10(%r9,%r10,2),%xmm1,%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 117,10 // jne 2a36 <_sk_load_tables_rgb_u16_be_avx+0x2b2>
- .byte 233,165,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
- .byte 233,160,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 117,10 // jne 2a2e <_sk_load_tables_rgb_u16_be_avx+0x2b2>
+ .byte 233,165,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 233,160,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
.byte 196,129,121,110,76,81,18 // vmovd 0x12(%r9,%r10,2),%xmm1
.byte 196,1,113,196,76,81,22,2 // vpinsrw $0x2,0x16(%r9,%r10,2),%xmm1,%xmm9
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,26 // jb 2a65 <_sk_load_tables_rgb_u16_be_avx+0x2e1>
+ .byte 114,26 // jb 2a5d <_sk_load_tables_rgb_u16_be_avx+0x2e1>
.byte 196,129,121,110,76,81,24 // vmovd 0x18(%r9,%r10,2),%xmm1
.byte 196,129,113,196,76,81,28,2 // vpinsrw $0x2,0x1c(%r9,%r10,2),%xmm1,%xmm1
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 117,10 // jne 2a6a <_sk_load_tables_rgb_u16_be_avx+0x2e6>
- .byte 233,113,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
- .byte 233,108,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 117,10 // jne 2a62 <_sk_load_tables_rgb_u16_be_avx+0x2e6>
+ .byte 233,113,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 233,108,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
.byte 196,129,121,110,92,81,30 // vmovd 0x1e(%r9,%r10,2),%xmm3
.byte 196,1,97,196,92,81,34,2 // vpinsrw $0x2,0x22(%r9,%r10,2),%xmm3,%xmm11
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,20 // jb 2a93 <_sk_load_tables_rgb_u16_be_avx+0x30f>
+ .byte 114,20 // jb 2a8b <_sk_load_tables_rgb_u16_be_avx+0x30f>
.byte 196,129,121,110,92,81,36 // vmovd 0x24(%r9,%r10,2),%xmm3
.byte 196,129,97,196,92,81,40,2 // vpinsrw $0x2,0x28(%r9,%r10,2),%xmm3,%xmm3
- .byte 233,67,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
- .byte 233,62,253,255,255 // jmpq 27d6 <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 233,67,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
+ .byte 233,62,253,255,255 // jmpq 27ce <_sk_load_tables_rgb_u16_be_avx+0x52>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,81,136,0,0 // vbroadcastss 0x8851(%rip),%ymm8 # b2f4 <_sk_clut_4D_avx+0x2291>
+ .byte 196,98,125,24,5,81,136,0,0 // vbroadcastss 0x8851(%rip),%ymm8 # b2ec <_sk_clut_4D_avx+0x2291>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,201 // vmovq %xmm9,%r9
@@ -27102,7 +27121,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,251,133,0,0 // vbroadcastss 0x85fb(%rip),%ymm9 # b2f8 <_sk_clut_4D_avx+0x2295>
+ .byte 196,98,125,24,13,251,133,0,0 // vbroadcastss 0x85fb(%rip),%ymm9 # b2f0 <_sk_clut_4D_avx+0x2295>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -27218,7 +27237,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,220,131,0,0 // vbroadcastss 0x83dc(%rip),%ymm9 # b2fc <_sk_clut_4D_avx+0x2299>
+ .byte 196,98,125,24,13,220,131,0,0 // vbroadcastss 0x83dc(%rip),%ymm9 # b2f4 <_sk_clut_4D_avx+0x2299>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -27423,36 +27442,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,137,128,0,0 // vbroadcastss 0x8089(%rip),%ymm12 # b300 <_sk_clut_4D_avx+0x229d>
+ .byte 196,98,125,24,37,137,128,0,0 // vbroadcastss 0x8089(%rip),%ymm12 # b2f8 <_sk_clut_4D_avx+0x229d>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,127,128,0,0 // vbroadcastss 0x807f(%rip),%ymm12 # b304 <_sk_clut_4D_avx+0x22a1>
+ .byte 196,98,125,24,37,127,128,0,0 // vbroadcastss 0x807f(%rip),%ymm12 # b2fc <_sk_clut_4D_avx+0x22a1>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,117,128,0,0 // vbroadcastss 0x8075(%rip),%ymm12 # b308 <_sk_clut_4D_avx+0x22a5>
+ .byte 196,98,125,24,37,117,128,0,0 // vbroadcastss 0x8075(%rip),%ymm12 # b300 <_sk_clut_4D_avx+0x22a5>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,107,128,0,0 // vbroadcastss 0x806b(%rip),%ymm12 # b30c <_sk_clut_4D_avx+0x22a9>
+ .byte 196,98,125,24,37,107,128,0,0 // vbroadcastss 0x806b(%rip),%ymm12 # b304 <_sk_clut_4D_avx+0x22a9>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,97,128,0,0 // vbroadcastss 0x8061(%rip),%ymm12 # b310 <_sk_clut_4D_avx+0x22ad>
+ .byte 196,98,125,24,37,97,128,0,0 // vbroadcastss 0x8061(%rip),%ymm12 # b308 <_sk_clut_4D_avx+0x22ad>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,82,128,0,0 // vbroadcastss 0x8052(%rip),%ymm12 # b314 <_sk_clut_4D_avx+0x22b1>
+ .byte 196,98,125,24,37,82,128,0,0 // vbroadcastss 0x8052(%rip),%ymm12 # b30c <_sk_clut_4D_avx+0x22b1>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,72,128,0,0 // vbroadcastss 0x8048(%rip),%ymm12 # b318 <_sk_clut_4D_avx+0x22b5>
+ .byte 196,98,125,24,37,72,128,0,0 // vbroadcastss 0x8048(%rip),%ymm12 # b310 <_sk_clut_4D_avx+0x22b5>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,44,128,0,0 // vbroadcastss 0x802c(%rip),%ymm11 # b31c <_sk_clut_4D_avx+0x22b9>
+ .byte 196,98,125,24,29,44,128,0,0 // vbroadcastss 0x802c(%rip),%ymm11 # b314 <_sk_clut_4D_avx+0x22b9>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,34,128,0,0 // vbroadcastss 0x8022(%rip),%ymm11 # b320 <_sk_clut_4D_avx+0x22bd>
+ .byte 196,98,125,24,29,34,128,0,0 // vbroadcastss 0x8022(%rip),%ymm11 # b318 <_sk_clut_4D_avx+0x22bd>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,19,128,0,0 // vbroadcastss 0x8013(%rip),%ymm11 # b324 <_sk_clut_4D_avx+0x22c1>
+ .byte 196,98,125,24,29,19,128,0,0 // vbroadcastss 0x8013(%rip),%ymm11 # b31c <_sk_clut_4D_avx+0x22c1>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,9,128,0,0 // vbroadcastss 0x8009(%rip),%ymm11 # b328 <_sk_clut_4D_avx+0x22c5>
+ .byte 196,98,125,24,29,9,128,0,0 // vbroadcastss 0x8009(%rip),%ymm11 # b320 <_sk_clut_4D_avx+0x22c5>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,250,127,0,0 // vbroadcastss 0x7ffa(%rip),%ymm10 # b32c <_sk_clut_4D_avx+0x22c9>
+ .byte 196,98,125,24,21,250,127,0,0 // vbroadcastss 0x7ffa(%rip),%ymm10 # b324 <_sk_clut_4D_avx+0x22c9>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27460,7 +27479,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,209,127,0,0 // vbroadcastss 0x7fd1(%rip),%ymm8 # b330 <_sk_clut_4D_avx+0x22cd>
+ .byte 196,98,125,24,5,209,127,0,0 // vbroadcastss 0x7fd1(%rip),%ymm8 # b328 <_sk_clut_4D_avx+0x22cd>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27482,36 +27501,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,130,127,0,0 // vbroadcastss 0x7f82(%rip),%ymm12 # b334 <_sk_clut_4D_avx+0x22d1>
+ .byte 196,98,125,24,37,130,127,0,0 // vbroadcastss 0x7f82(%rip),%ymm12 # b32c <_sk_clut_4D_avx+0x22d1>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,120,127,0,0 // vbroadcastss 0x7f78(%rip),%ymm12 # b338 <_sk_clut_4D_avx+0x22d5>
+ .byte 196,98,125,24,37,120,127,0,0 // vbroadcastss 0x7f78(%rip),%ymm12 # b330 <_sk_clut_4D_avx+0x22d5>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,110,127,0,0 // vbroadcastss 0x7f6e(%rip),%ymm12 # b33c <_sk_clut_4D_avx+0x22d9>
+ .byte 196,98,125,24,37,110,127,0,0 // vbroadcastss 0x7f6e(%rip),%ymm12 # b334 <_sk_clut_4D_avx+0x22d9>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,100,127,0,0 // vbroadcastss 0x7f64(%rip),%ymm12 # b340 <_sk_clut_4D_avx+0x22dd>
+ .byte 196,98,125,24,37,100,127,0,0 // vbroadcastss 0x7f64(%rip),%ymm12 # b338 <_sk_clut_4D_avx+0x22dd>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,90,127,0,0 // vbroadcastss 0x7f5a(%rip),%ymm12 # b344 <_sk_clut_4D_avx+0x22e1>
+ .byte 196,98,125,24,37,90,127,0,0 // vbroadcastss 0x7f5a(%rip),%ymm12 # b33c <_sk_clut_4D_avx+0x22e1>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,75,127,0,0 // vbroadcastss 0x7f4b(%rip),%ymm12 # b348 <_sk_clut_4D_avx+0x22e5>
+ .byte 196,98,125,24,37,75,127,0,0 // vbroadcastss 0x7f4b(%rip),%ymm12 # b340 <_sk_clut_4D_avx+0x22e5>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,65,127,0,0 // vbroadcastss 0x7f41(%rip),%ymm12 # b34c <_sk_clut_4D_avx+0x22e9>
+ .byte 196,98,125,24,37,65,127,0,0 // vbroadcastss 0x7f41(%rip),%ymm12 # b344 <_sk_clut_4D_avx+0x22e9>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,37,127,0,0 // vbroadcastss 0x7f25(%rip),%ymm11 # b350 <_sk_clut_4D_avx+0x22ed>
+ .byte 196,98,125,24,29,37,127,0,0 // vbroadcastss 0x7f25(%rip),%ymm11 # b348 <_sk_clut_4D_avx+0x22ed>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,27,127,0,0 // vbroadcastss 0x7f1b(%rip),%ymm11 # b354 <_sk_clut_4D_avx+0x22f1>
+ .byte 196,98,125,24,29,27,127,0,0 // vbroadcastss 0x7f1b(%rip),%ymm11 # b34c <_sk_clut_4D_avx+0x22f1>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,12,127,0,0 // vbroadcastss 0x7f0c(%rip),%ymm11 # b358 <_sk_clut_4D_avx+0x22f5>
+ .byte 196,98,125,24,29,12,127,0,0 // vbroadcastss 0x7f0c(%rip),%ymm11 # b350 <_sk_clut_4D_avx+0x22f5>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,2,127,0,0 // vbroadcastss 0x7f02(%rip),%ymm11 # b35c <_sk_clut_4D_avx+0x22f9>
+ .byte 196,98,125,24,29,2,127,0,0 // vbroadcastss 0x7f02(%rip),%ymm11 # b354 <_sk_clut_4D_avx+0x22f9>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,243,126,0,0 // vbroadcastss 0x7ef3(%rip),%ymm10 # b360 <_sk_clut_4D_avx+0x22fd>
+ .byte 196,98,125,24,21,243,126,0,0 // vbroadcastss 0x7ef3(%rip),%ymm10 # b358 <_sk_clut_4D_avx+0x22fd>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27519,7 +27538,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,202,126,0,0 // vbroadcastss 0x7eca(%rip),%ymm8 # b364 <_sk_clut_4D_avx+0x2301>
+ .byte 196,98,125,24,5,202,126,0,0 // vbroadcastss 0x7eca(%rip),%ymm8 # b35c <_sk_clut_4D_avx+0x2301>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27541,36 +27560,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,123,126,0,0 // vbroadcastss 0x7e7b(%rip),%ymm12 # b368 <_sk_clut_4D_avx+0x2305>
+ .byte 196,98,125,24,37,123,126,0,0 // vbroadcastss 0x7e7b(%rip),%ymm12 # b360 <_sk_clut_4D_avx+0x2305>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,113,126,0,0 // vbroadcastss 0x7e71(%rip),%ymm12 # b36c <_sk_clut_4D_avx+0x2309>
+ .byte 196,98,125,24,37,113,126,0,0 // vbroadcastss 0x7e71(%rip),%ymm12 # b364 <_sk_clut_4D_avx+0x2309>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,103,126,0,0 // vbroadcastss 0x7e67(%rip),%ymm12 # b370 <_sk_clut_4D_avx+0x230d>
+ .byte 196,98,125,24,37,103,126,0,0 // vbroadcastss 0x7e67(%rip),%ymm12 # b368 <_sk_clut_4D_avx+0x230d>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,93,126,0,0 // vbroadcastss 0x7e5d(%rip),%ymm12 # b374 <_sk_clut_4D_avx+0x2311>
+ .byte 196,98,125,24,37,93,126,0,0 // vbroadcastss 0x7e5d(%rip),%ymm12 # b36c <_sk_clut_4D_avx+0x2311>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,83,126,0,0 // vbroadcastss 0x7e53(%rip),%ymm12 # b378 <_sk_clut_4D_avx+0x2315>
+ .byte 196,98,125,24,37,83,126,0,0 // vbroadcastss 0x7e53(%rip),%ymm12 # b370 <_sk_clut_4D_avx+0x2315>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,68,126,0,0 // vbroadcastss 0x7e44(%rip),%ymm12 # b37c <_sk_clut_4D_avx+0x2319>
+ .byte 196,98,125,24,37,68,126,0,0 // vbroadcastss 0x7e44(%rip),%ymm12 # b374 <_sk_clut_4D_avx+0x2319>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,58,126,0,0 // vbroadcastss 0x7e3a(%rip),%ymm12 # b380 <_sk_clut_4D_avx+0x231d>
+ .byte 196,98,125,24,37,58,126,0,0 // vbroadcastss 0x7e3a(%rip),%ymm12 # b378 <_sk_clut_4D_avx+0x231d>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,30,126,0,0 // vbroadcastss 0x7e1e(%rip),%ymm11 # b384 <_sk_clut_4D_avx+0x2321>
+ .byte 196,98,125,24,29,30,126,0,0 // vbroadcastss 0x7e1e(%rip),%ymm11 # b37c <_sk_clut_4D_avx+0x2321>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,20,126,0,0 // vbroadcastss 0x7e14(%rip),%ymm11 # b388 <_sk_clut_4D_avx+0x2325>
+ .byte 196,98,125,24,29,20,126,0,0 // vbroadcastss 0x7e14(%rip),%ymm11 # b380 <_sk_clut_4D_avx+0x2325>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,5,126,0,0 // vbroadcastss 0x7e05(%rip),%ymm11 # b38c <_sk_clut_4D_avx+0x2329>
+ .byte 196,98,125,24,29,5,126,0,0 // vbroadcastss 0x7e05(%rip),%ymm11 # b384 <_sk_clut_4D_avx+0x2329>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,251,125,0,0 // vbroadcastss 0x7dfb(%rip),%ymm11 # b390 <_sk_clut_4D_avx+0x232d>
+ .byte 196,98,125,24,29,251,125,0,0 // vbroadcastss 0x7dfb(%rip),%ymm11 # b388 <_sk_clut_4D_avx+0x232d>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,236,125,0,0 // vbroadcastss 0x7dec(%rip),%ymm10 # b394 <_sk_clut_4D_avx+0x2331>
+ .byte 196,98,125,24,21,236,125,0,0 // vbroadcastss 0x7dec(%rip),%ymm10 # b38c <_sk_clut_4D_avx+0x2331>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27578,7 +27597,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,195,125,0,0 // vbroadcastss 0x7dc3(%rip),%ymm8 # b398 <_sk_clut_4D_avx+0x2335>
+ .byte 196,98,125,24,5,195,125,0,0 // vbroadcastss 0x7dc3(%rip),%ymm8 # b390 <_sk_clut_4D_avx+0x2335>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27600,36 +27619,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,116,125,0,0 // vbroadcastss 0x7d74(%rip),%ymm12 # b39c <_sk_clut_4D_avx+0x2339>
+ .byte 196,98,125,24,37,116,125,0,0 // vbroadcastss 0x7d74(%rip),%ymm12 # b394 <_sk_clut_4D_avx+0x2339>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,106,125,0,0 // vbroadcastss 0x7d6a(%rip),%ymm12 # b3a0 <_sk_clut_4D_avx+0x233d>
+ .byte 196,98,125,24,37,106,125,0,0 // vbroadcastss 0x7d6a(%rip),%ymm12 # b398 <_sk_clut_4D_avx+0x233d>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,96,125,0,0 // vbroadcastss 0x7d60(%rip),%ymm12 # b3a4 <_sk_clut_4D_avx+0x2341>
+ .byte 196,98,125,24,37,96,125,0,0 // vbroadcastss 0x7d60(%rip),%ymm12 # b39c <_sk_clut_4D_avx+0x2341>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,86,125,0,0 // vbroadcastss 0x7d56(%rip),%ymm12 # b3a8 <_sk_clut_4D_avx+0x2345>
+ .byte 196,98,125,24,37,86,125,0,0 // vbroadcastss 0x7d56(%rip),%ymm12 # b3a0 <_sk_clut_4D_avx+0x2345>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,76,125,0,0 // vbroadcastss 0x7d4c(%rip),%ymm12 # b3ac <_sk_clut_4D_avx+0x2349>
+ .byte 196,98,125,24,37,76,125,0,0 // vbroadcastss 0x7d4c(%rip),%ymm12 # b3a4 <_sk_clut_4D_avx+0x2349>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,61,125,0,0 // vbroadcastss 0x7d3d(%rip),%ymm12 # b3b0 <_sk_clut_4D_avx+0x234d>
+ .byte 196,98,125,24,37,61,125,0,0 // vbroadcastss 0x7d3d(%rip),%ymm12 # b3a8 <_sk_clut_4D_avx+0x234d>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,51,125,0,0 // vbroadcastss 0x7d33(%rip),%ymm12 # b3b4 <_sk_clut_4D_avx+0x2351>
+ .byte 196,98,125,24,37,51,125,0,0 // vbroadcastss 0x7d33(%rip),%ymm12 # b3ac <_sk_clut_4D_avx+0x2351>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,23,125,0,0 // vbroadcastss 0x7d17(%rip),%ymm11 # b3b8 <_sk_clut_4D_avx+0x2355>
+ .byte 196,98,125,24,29,23,125,0,0 // vbroadcastss 0x7d17(%rip),%ymm11 # b3b0 <_sk_clut_4D_avx+0x2355>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,13,125,0,0 // vbroadcastss 0x7d0d(%rip),%ymm11 # b3bc <_sk_clut_4D_avx+0x2359>
+ .byte 196,98,125,24,29,13,125,0,0 // vbroadcastss 0x7d0d(%rip),%ymm11 # b3b4 <_sk_clut_4D_avx+0x2359>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,254,124,0,0 // vbroadcastss 0x7cfe(%rip),%ymm11 # b3c0 <_sk_clut_4D_avx+0x235d>
+ .byte 196,98,125,24,29,254,124,0,0 // vbroadcastss 0x7cfe(%rip),%ymm11 # b3b8 <_sk_clut_4D_avx+0x235d>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,244,124,0,0 // vbroadcastss 0x7cf4(%rip),%ymm11 # b3c4 <_sk_clut_4D_avx+0x2361>
+ .byte 196,98,125,24,29,244,124,0,0 // vbroadcastss 0x7cf4(%rip),%ymm11 # b3bc <_sk_clut_4D_avx+0x2361>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,229,124,0,0 // vbroadcastss 0x7ce5(%rip),%ymm10 # b3c8 <_sk_clut_4D_avx+0x2365>
+ .byte 196,98,125,24,21,229,124,0,0 // vbroadcastss 0x7ce5(%rip),%ymm10 # b3c0 <_sk_clut_4D_avx+0x2365>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27637,7 +27656,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,188,124,0,0 // vbroadcastss 0x7cbc(%rip),%ymm8 # b3cc <_sk_clut_4D_avx+0x2369>
+ .byte 196,98,125,24,5,188,124,0,0 // vbroadcastss 0x7cbc(%rip),%ymm8 # b3c4 <_sk_clut_4D_avx+0x2369>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27656,34 +27675,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,127,124,0,0 // vbroadcastss 0x7c7f(%rip),%ymm8 # b3d0 <_sk_clut_4D_avx+0x236d>
+ .byte 196,98,125,24,5,127,124,0,0 // vbroadcastss 0x7c7f(%rip),%ymm8 # b3c8 <_sk_clut_4D_avx+0x236d>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,117,124,0,0 // vbroadcastss 0x7c75(%rip),%ymm9 # b3d4 <_sk_clut_4D_avx+0x2371>
+ .byte 196,98,125,24,13,117,124,0,0 // vbroadcastss 0x7c75(%rip),%ymm9 # b3cc <_sk_clut_4D_avx+0x2371>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,107,124,0,0 // vbroadcastss 0x7c6b(%rip),%ymm4 # b3d8 <_sk_clut_4D_avx+0x2375>
+ .byte 196,226,125,24,37,107,124,0,0 // vbroadcastss 0x7c6b(%rip),%ymm4 # b3d0 <_sk_clut_4D_avx+0x2375>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,98,124,0,0 // vbroadcastss 0x7c62(%rip),%ymm10 # b3dc <_sk_clut_4D_avx+0x2379>
+ .byte 196,98,125,24,21,98,124,0,0 // vbroadcastss 0x7c62(%rip),%ymm10 # b3d4 <_sk_clut_4D_avx+0x2379>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,88,124,0,0 // vbroadcastss 0x7c58(%rip),%ymm11 # b3e0 <_sk_clut_4D_avx+0x237d>
+ .byte 196,98,125,24,29,88,124,0,0 // vbroadcastss 0x7c58(%rip),%ymm11 # b3d8 <_sk_clut_4D_avx+0x237d>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,74,124,0,0 // vbroadcastss 0x7c4a(%rip),%ymm12 # b3e4 <_sk_clut_4D_avx+0x2381>
+ .byte 196,98,125,24,37,74,124,0,0 // vbroadcastss 0x7c4a(%rip),%ymm12 # b3dc <_sk_clut_4D_avx+0x2381>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,64,124,0,0 // vbroadcastss 0x7c40(%rip),%ymm13 # b3e8 <_sk_clut_4D_avx+0x2385>
+ .byte 196,98,125,24,45,64,124,0,0 // vbroadcastss 0x7c40(%rip),%ymm13 # b3e0 <_sk_clut_4D_avx+0x2385>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,31,124,0,0 // vbroadcastss 0x7c1f(%rip),%ymm15 # b3ec <_sk_clut_4D_avx+0x2389>
+ .byte 196,98,125,24,61,31,124,0,0 // vbroadcastss 0x7c1f(%rip),%ymm15 # b3e4 <_sk_clut_4D_avx+0x2389>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,21,124,0,0 // vbroadcastss 0x7c15(%rip),%ymm3 # b3f0 <_sk_clut_4D_avx+0x238d>
+ .byte 196,226,125,24,29,21,124,0,0 // vbroadcastss 0x7c15(%rip),%ymm3 # b3e8 <_sk_clut_4D_avx+0x238d>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,8,124,0,0 // vbroadcastss 0x7c08(%rip),%ymm2 # b3f4 <_sk_clut_4D_avx+0x2391>
+ .byte 196,226,125,24,21,8,124,0,0 // vbroadcastss 0x7c08(%rip),%ymm2 # b3ec <_sk_clut_4D_avx+0x2391>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,255,123,0,0 // vbroadcastss 0x7bff(%rip),%ymm6 # b3f8 <_sk_clut_4D_avx+0x2395>
+ .byte 196,226,125,24,53,255,123,0,0 // vbroadcastss 0x7bff(%rip),%ymm6 # b3f0 <_sk_clut_4D_avx+0x2395>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -27725,7 +27744,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,66,123,0,0 // vbroadcastss 0x7b42(%rip),%ymm2 # b3fc <_sk_clut_4D_avx+0x2399>
+ .byte 196,226,125,24,21,66,123,0,0 // vbroadcastss 0x7b42(%rip),%ymm2 # b3f4 <_sk_clut_4D_avx+0x2399>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -27745,31 +27764,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,254,122,0,0 // vbroadcastss 0x7afe(%rip),%ymm8 # b400 <_sk_clut_4D_avx+0x239d>
+ .byte 196,98,125,24,5,254,122,0,0 // vbroadcastss 0x7afe(%rip),%ymm8 # b3f8 <_sk_clut_4D_avx+0x239d>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,244,122,0,0 // vbroadcastss 0x7af4(%rip),%ymm8 # b404 <_sk_clut_4D_avx+0x23a1>
+ .byte 196,98,125,24,5,244,122,0,0 // vbroadcastss 0x7af4(%rip),%ymm8 # b3fc <_sk_clut_4D_avx+0x23a1>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,234,122,0,0 // vbroadcastss 0x7aea(%rip),%ymm9 # b408 <_sk_clut_4D_avx+0x23a5>
+ .byte 196,98,125,24,13,234,122,0,0 // vbroadcastss 0x7aea(%rip),%ymm9 # b400 <_sk_clut_4D_avx+0x23a5>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,214,122,0,0 // vbroadcastss 0x7ad6(%rip),%ymm8 # b40c <_sk_clut_4D_avx+0x23a9>
+ .byte 196,98,125,24,5,214,122,0,0 // vbroadcastss 0x7ad6(%rip),%ymm8 # b404 <_sk_clut_4D_avx+0x23a9>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,204,122,0,0 // vbroadcastss 0x7acc(%rip),%ymm8 # b410 <_sk_clut_4D_avx+0x23ad>
+ .byte 196,98,125,24,5,204,122,0,0 // vbroadcastss 0x7acc(%rip),%ymm8 # b408 <_sk_clut_4D_avx+0x23ad>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,194,122,0,0 // vbroadcastss 0x7ac2(%rip),%ymm8 # b414 <_sk_clut_4D_avx+0x23b1>
+ .byte 196,98,125,24,5,194,122,0,0 // vbroadcastss 0x7ac2(%rip),%ymm8 # b40c <_sk_clut_4D_avx+0x23b1>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,180,122,0,0 // vbroadcastss 0x7ab4(%rip),%ymm8 # b418 <_sk_clut_4D_avx+0x23b5>
+ .byte 196,98,125,24,5,180,122,0,0 // vbroadcastss 0x7ab4(%rip),%ymm8 # b410 <_sk_clut_4D_avx+0x23b5>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,157,122,0,0 // vbroadcastss 0x7a9d(%rip),%ymm9 # b41c <_sk_clut_4D_avx+0x23b9>
+ .byte 196,98,125,24,13,157,122,0,0 // vbroadcastss 0x7a9d(%rip),%ymm9 # b414 <_sk_clut_4D_avx+0x23b9>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,146,122,0,0 // vbroadcastss 0x7a92(%rip),%ymm11 # b420 <_sk_clut_4D_avx+0x23bd>
+ .byte 196,98,125,24,29,146,122,0,0 // vbroadcastss 0x7a92(%rip),%ymm11 # b418 <_sk_clut_4D_avx+0x23bd>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,136,122,0,0 // vbroadcastss 0x7a88(%rip),%ymm12 # b424 <_sk_clut_4D_avx+0x23c1>
+ .byte 196,98,125,24,37,136,122,0,0 // vbroadcastss 0x7a88(%rip),%ymm12 # b41c <_sk_clut_4D_avx+0x23c1>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -27784,9 +27803,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,62,122,0,0 // vbroadcastss 0x7a3e(%rip),%ymm0 # b428 <_sk_clut_4D_avx+0x23c5>
+ .byte 196,226,125,24,5,62,122,0,0 // vbroadcastss 0x7a3e(%rip),%ymm0 # b420 <_sk_clut_4D_avx+0x23c5>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,53,122,0,0 // vbroadcastss 0x7a35(%rip),%ymm8 # b42c <_sk_clut_4D_avx+0x23c9>
+ .byte 196,98,125,24,5,53,122,0,0 // vbroadcastss 0x7a35(%rip),%ymm8 # b424 <_sk_clut_4D_avx+0x23c9>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27803,15 +27822,15 @@ _sk_load_a8_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,67 // jne 3a5c <_sk_load_a8_avx+0x5c>
+ .byte 117,67 // jne 3a54 <_sk_load_a8_avx+0x5c>
.byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0
- .byte 197,249,219,5,249,125,0,0 // vpand 0x7df9(%rip),%xmm0,%xmm0 # b820 <_sk_clut_4D_avx+0x27bd>
+ .byte 197,249,219,5,225,125,0,0 // vpand 0x7de1(%rip),%xmm0,%xmm0 # b800 <_sk_clut_4D_avx+0x27a5>
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,233,121,0,0 // vbroadcastss 0x79e9(%rip),%ymm1 # b430 <_sk_clut_4D_avx+0x23cd>
+ .byte 196,226,125,24,13,233,121,0,0 // vbroadcastss 0x79e9(%rip),%ymm1 # b428 <_sk_clut_4D_avx+0x23cd>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27824,15 +27843,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,175 // ja 3a1f <_sk_load_a8_avx+0x1f>
+ .byte 119,175 // ja 3a17 <_sk_load_a8_avx+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 3af4 <_sk_load_a8_avx+0xf4>
+ .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 3aec <_sk_load_a8_avx+0xf4>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,144 // jmp 3a1f <_sk_load_a8_avx+0x1f>
+ .byte 235,144 // jmp 3a17 <_sk_load_a8_avx+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27840,7 +27859,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,104,255,255,255 // jmpq 3a1f <_sk_load_a8_avx+0x1f>
+ .byte 233,104,255,255,255 // jmpq 3a17 <_sk_load_a8_avx+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27851,7 +27870,7 @@ _sk_load_a8_avx:
.byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,45,255,255,255 // jmpq 3a1f <_sk_load_a8_avx+0x1f>
+ .byte 233,45,255,255,255 // jmpq 3a17 <_sk_load_a8_avx+0x1f>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -27860,7 +27879,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde003b04 <_sk_clut_4D_avx+0xffffffffddffaaa1>
+ .byte 232,255,255,255,221 // callq ffffffffde003afc <_sk_clut_4D_avx+0xffffffffddffaaa1>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -27883,15 +27902,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,67 // jne 3b6c <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,67 // jne 3b64 <_sk_load_a8_dst_avx+0x5c>
.byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4
- .byte 197,217,219,37,249,124,0,0 // vpand 0x7cf9(%rip),%xmm4,%xmm4 # b830 <_sk_clut_4D_avx+0x27cd>
+ .byte 197,217,219,37,225,124,0,0 // vpand 0x7ce1(%rip),%xmm4,%xmm4 # b810 <_sk_clut_4D_avx+0x27b5>
.byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5
.byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,221,120,0,0 // vbroadcastss 0x78dd(%rip),%ymm5 # b434 <_sk_clut_4D_avx+0x23d1>
+ .byte 196,226,125,24,45,221,120,0,0 // vbroadcastss 0x78dd(%rip),%ymm5 # b42c <_sk_clut_4D_avx+0x23d1>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -27904,15 +27923,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,175 // ja 3b2f <_sk_load_a8_dst_avx+0x1f>
+ .byte 119,175 // ja 3b27 <_sk_load_a8_dst_avx+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 3c04 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 3bfc <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,144 // jmp 3b2f <_sk_load_a8_dst_avx+0x1f>
+ .byte 235,144 // jmp 3b27 <_sk_load_a8_dst_avx+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27920,7 +27939,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,104,255,255,255 // jmpq 3b2f <_sk_load_a8_dst_avx+0x1f>
+ .byte 233,104,255,255,255 // jmpq 3b27 <_sk_load_a8_dst_avx+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27931,7 +27950,7 @@ _sk_load_a8_dst_avx:
.byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,45,255,255,255 // jmpq 3b2f <_sk_load_a8_dst_avx+0x1f>
+ .byte 233,45,255,255,255 // jmpq 3b27 <_sk_load_a8_dst_avx+0x1f>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -27940,7 +27959,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde003c14 <_sk_clut_4D_avx+0xffffffffddffabb1>
+ .byte 232,255,255,255,221 // callq ffffffffde003c0c <_sk_clut_4D_avx+0xffffffffddffabb1>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -27995,7 +28014,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,76,119,0,0 // vbroadcastss 0x774c(%rip),%ymm1 # b438 <_sk_clut_4D_avx+0x23d5>
+ .byte 196,226,125,24,13,76,119,0,0 // vbroadcastss 0x774c(%rip),%ymm1 # b430 <_sk_clut_4D_avx+0x23d5>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -28014,14 +28033,14 @@ _sk_store_a8_avx:
.byte 77,15,175,202 // imul %r10,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,31,119,0,0 // vbroadcastss 0x771f(%rip),%ymm8 # b43c <_sk_clut_4D_avx+0x23d9>
+ .byte 196,98,125,24,5,31,119,0,0 // vbroadcastss 0x771f(%rip),%ymm8 # b434 <_sk_clut_4D_avx+0x23d9>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 3d47 <_sk_store_a8_avx+0x47>
+ .byte 117,11 // jne 3d3f <_sk_store_a8_avx+0x47>
.byte 196,65,123,17,4,25 // vmovsd %xmm8,(%r9,%rbx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28030,25 +28049,25 @@ _sk_store_a8_avx:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 3d42 <_sk_store_a8_avx+0x42>
+ .byte 119,235 // ja 3d3a <_sk_store_a8_avx+0x42>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 3dbc <_sk_store_a8_avx+0xbc>
+ .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 3db4 <_sk_store_a8_avx+0xbc>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,25,0 // vpextrb $0x0,%xmm8,(%r9,%rbx,1)
- .byte 235,201 // jmp 3d42 <_sk_store_a8_avx+0x42>
+ .byte 235,201 // jmp 3d3a <_sk_store_a8_avx+0x42>
.byte 196,67,121,20,68,25,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rbx,1)
- .byte 196,98,57,0,5,182,122,0,0 // vpshufb 0x7ab6(%rip),%xmm8,%xmm8 # b840 <_sk_clut_4D_avx+0x27dd>
+ .byte 196,98,57,0,5,158,122,0,0 // vpshufb 0x7a9e(%rip),%xmm8,%xmm8 # b820 <_sk_clut_4D_avx+0x27c5>
.byte 196,67,121,21,4,25,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,1)
- .byte 235,175 // jmp 3d42 <_sk_store_a8_avx+0x42>
+ .byte 235,175 // jmp 3d3a <_sk_store_a8_avx+0x42>
.byte 196,67,121,20,68,25,6,12 // vpextrb $0xc,%xmm8,0x6(%r9,%rbx,1)
.byte 196,67,121,20,68,25,5,10 // vpextrb $0xa,%xmm8,0x5(%r9,%rbx,1)
.byte 196,67,121,20,68,25,4,8 // vpextrb $0x8,%xmm8,0x4(%r9,%rbx,1)
- .byte 196,98,57,0,5,156,122,0,0 // vpshufb 0x7a9c(%rip),%xmm8,%xmm8 # b850 <_sk_clut_4D_avx+0x27ed>
+ .byte 196,98,57,0,5,132,122,0,0 // vpshufb 0x7a84(%rip),%xmm8,%xmm8 # b830 <_sk_clut_4D_avx+0x27d5>
.byte 196,65,121,126,4,25 // vmovd %xmm8,(%r9,%rbx,1)
- .byte 235,134 // jmp 3d42 <_sk_store_a8_avx+0x42>
+ .byte 235,134 // jmp 3d3a <_sk_store_a8_avx+0x42>
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
.byte 255,197 // inc %ebp
@@ -28081,18 +28100,18 @@ _sk_load_g8_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,72 // jne 3e39 <_sk_load_g8_avx+0x61>
+ .byte 117,72 // jne 3e31 <_sk_load_g8_avx+0x61>
.byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0
- .byte 197,249,219,5,97,122,0,0 // vpand 0x7a61(%rip),%xmm0,%xmm0 # b860 <_sk_clut_4D_avx+0x27fd>
+ .byte 197,249,219,5,73,122,0,0 // vpand 0x7a49(%rip),%xmm0,%xmm0 # b840 <_sk_clut_4D_avx+0x27e5>
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,33,118,0,0 // vbroadcastss 0x7621(%rip),%ymm1 # b440 <_sk_clut_4D_avx+0x23dd>
+ .byte 196,226,125,24,13,33,118,0,0 // vbroadcastss 0x7621(%rip),%ymm1 # b438 <_sk_clut_4D_avx+0x23dd>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,22,118,0,0 // vbroadcastss 0x7616(%rip),%ymm3 # b444 <_sk_clut_4D_avx+0x23e1>
+ .byte 196,226,125,24,29,22,118,0,0 // vbroadcastss 0x7616(%rip),%ymm3 # b43c <_sk_clut_4D_avx+0x23e1>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -28102,15 +28121,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,170 // ja 3df7 <_sk_load_g8_avx+0x1f>
+ .byte 119,170 // ja 3def <_sk_load_g8_avx+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,120,0,0,0 // lea 0x78(%rip),%r11 # 3ed0 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,29,120,0,0,0 // lea 0x78(%rip),%r11 # 3ec8 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,139 // jmp 3df7 <_sk_load_g8_avx+0x1f>
+ .byte 235,139 // jmp 3def <_sk_load_g8_avx+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -28118,7 +28137,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,99,255,255,255 // jmpq 3df7 <_sk_load_g8_avx+0x1f>
+ .byte 233,99,255,255,255 // jmpq 3def <_sk_load_g8_avx+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -28129,7 +28148,7 @@ _sk_load_g8_avx:
.byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,40,255,255,255 // jmpq 3df7 <_sk_load_g8_avx+0x1f>
+ .byte 233,40,255,255,255 // jmpq 3def <_sk_load_g8_avx+0x1f>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -28138,7 +28157,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003ee0 <_sk_clut_4D_avx+0xffffffffdeffae7d>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf003ed8 <_sk_clut_4D_avx+0xffffffffdeffae7d>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -28161,18 +28180,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 117,72 // jne 3f4d <_sk_load_g8_dst_avx+0x61>
+ .byte 117,72 // jne 3f45 <_sk_load_g8_dst_avx+0x61>
.byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4
- .byte 197,217,219,37,93,121,0,0 // vpand 0x795d(%rip),%xmm4,%xmm4 # b870 <_sk_clut_4D_avx+0x280d>
+ .byte 197,217,219,37,69,121,0,0 // vpand 0x7945(%rip),%xmm4,%xmm4 # b850 <_sk_clut_4D_avx+0x27f5>
.byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5
.byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,21,117,0,0 // vbroadcastss 0x7515(%rip),%ymm5 # b448 <_sk_clut_4D_avx+0x23e5>
+ .byte 196,226,125,24,45,21,117,0,0 // vbroadcastss 0x7515(%rip),%ymm5 # b440 <_sk_clut_4D_avx+0x23e5>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,10,117,0,0 // vbroadcastss 0x750a(%rip),%ymm7 # b44c <_sk_clut_4D_avx+0x23e9>
+ .byte 196,226,125,24,61,10,117,0,0 // vbroadcastss 0x750a(%rip),%ymm7 # b444 <_sk_clut_4D_avx+0x23e9>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 91 // pop %rbx
@@ -28182,15 +28201,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,170 // ja 3f0b <_sk_load_g8_dst_avx+0x1f>
+ .byte 119,170 // ja 3f03 <_sk_load_g8_dst_avx+0x1f>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,120,0,0,0 // lea 0x78(%rip),%r11 # 3fe4 <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,29,120,0,0,0 // lea 0x78(%rip),%r11 # 3fdc <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,139 // jmp 3f0b <_sk_load_g8_dst_avx+0x1f>
+ .byte 235,139 // jmp 3f03 <_sk_load_g8_dst_avx+0x1f>
.byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -28198,7 +28217,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,99,255,255,255 // jmpq 3f0b <_sk_load_g8_dst_avx+0x1f>
+ .byte 233,99,255,255,255 // jmpq 3f03 <_sk_load_g8_dst_avx+0x1f>
.byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -28209,7 +28228,7 @@ _sk_load_g8_dst_avx:
.byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,40,255,255,255 // jmpq 3f0b <_sk_load_g8_dst_avx+0x1f>
+ .byte 233,40,255,255,255 // jmpq 3f03 <_sk_load_g8_dst_avx+0x1f>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -28218,7 +28237,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003ff4 <_sk_clut_4D_avx+0xffffffffdeffaf91>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf003fec <_sk_clut_4D_avx+0xffffffffdeffaf91>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -28273,10 +28292,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,132,115,0,0 // vbroadcastss 0x7384(%rip),%ymm1 # b450 <_sk_clut_4D_avx+0x23ed>
+ .byte 196,226,125,24,13,132,115,0,0 // vbroadcastss 0x7384(%rip),%ymm1 # b448 <_sk_clut_4D_avx+0x23ed>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,121,115,0,0 // vbroadcastss 0x7379(%rip),%ymm3 # b454 <_sk_clut_4D_avx+0x23f1>
+ .byte 196,226,125,24,29,121,115,0,0 // vbroadcastss 0x7379(%rip),%ymm3 # b44c <_sk_clut_4D_avx+0x23f1>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -28294,29 +28313,29 @@ _sk_load_565_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,129,0,0,0 // jne 4186 <_sk_load_565_avx+0xa1>
+ .byte 15,133,129,0,0,0 // jne 417e <_sk_load_565_avx+0xa1>
.byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm2
- .byte 196,226,125,24,5,49,115,0,0 // vbroadcastss 0x7331(%rip),%ymm0 # b458 <_sk_clut_4D_avx+0x23f5>
+ .byte 196,226,125,24,5,49,115,0,0 // vbroadcastss 0x7331(%rip),%ymm0 # b450 <_sk_clut_4D_avx+0x23f5>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,36,115,0,0 // vbroadcastss 0x7324(%rip),%ymm1 # b45c <_sk_clut_4D_avx+0x23f9>
+ .byte 196,226,125,24,13,36,115,0,0 // vbroadcastss 0x7324(%rip),%ymm1 # b454 <_sk_clut_4D_avx+0x23f9>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,27,115,0,0 // vbroadcastss 0x731b(%rip),%ymm1 # b460 <_sk_clut_4D_avx+0x23fd>
+ .byte 196,226,125,24,13,27,115,0,0 // vbroadcastss 0x731b(%rip),%ymm1 # b458 <_sk_clut_4D_avx+0x23fd>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,14,115,0,0 // vbroadcastss 0x730e(%rip),%ymm3 # b464 <_sk_clut_4D_avx+0x2401>
+ .byte 196,226,125,24,29,14,115,0,0 // vbroadcastss 0x730e(%rip),%ymm3 # b45c <_sk_clut_4D_avx+0x2401>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,5,115,0,0 // vbroadcastss 0x7305(%rip),%ymm3 # b468 <_sk_clut_4D_avx+0x2405>
+ .byte 196,226,125,24,29,5,115,0,0 // vbroadcastss 0x7305(%rip),%ymm3 # b460 <_sk_clut_4D_avx+0x2405>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,248,114,0,0 // vbroadcastss 0x72f8(%rip),%ymm3 # b46c <_sk_clut_4D_avx+0x2409>
+ .byte 196,226,125,24,29,248,114,0,0 // vbroadcastss 0x72f8(%rip),%ymm3 # b464 <_sk_clut_4D_avx+0x2409>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,237,114,0,0 // vbroadcastss 0x72ed(%rip),%ymm3 # b470 <_sk_clut_4D_avx+0x240d>
+ .byte 196,226,125,24,29,237,114,0,0 // vbroadcastss 0x72ed(%rip),%ymm3 # b468 <_sk_clut_4D_avx+0x240d>
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
@@ -28324,27 +28343,27 @@ _sk_load_565_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,109,255,255,255 // ja 410b <_sk_load_565_avx+0x26>
+ .byte 15,135,109,255,255,255 // ja 4103 <_sk_load_565_avx+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 420c <_sk_load_565_avx+0x127>
+ .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 4204 <_sk_load_565_avx+0x127>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,75,255,255,255 // jmpq 410b <_sk_load_565_avx+0x26>
+ .byte 233,75,255,255,255 // jmpq 4103 <_sk_load_565_avx+0x26>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,46,255,255,255 // jmpq 410b <_sk_load_565_avx+0x26>
+ .byte 233,46,255,255,255 // jmpq 4103 <_sk_load_565_avx+0x26>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,1,255,255,255 // jmpq 410b <_sk_load_565_avx+0x26>
+ .byte 233,1,255,255,255 // jmpq 4103 <_sk_load_565_avx+0x26>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -28378,29 +28397,29 @@ _sk_load_565_dst_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,129,0,0,0 // jne 42c9 <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,129,0,0,0 // jne 42c1 <_sk_load_565_dst_avx+0xa1>
.byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4
.byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5
.byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,93,24,245,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm6
- .byte 196,226,125,24,37,10,114,0,0 // vbroadcastss 0x720a(%rip),%ymm4 # b474 <_sk_clut_4D_avx+0x2411>
+ .byte 196,226,125,24,37,10,114,0,0 // vbroadcastss 0x720a(%rip),%ymm4 # b46c <_sk_clut_4D_avx+0x2411>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,253,113,0,0 // vbroadcastss 0x71fd(%rip),%ymm5 # b478 <_sk_clut_4D_avx+0x2415>
+ .byte 196,226,125,24,45,253,113,0,0 // vbroadcastss 0x71fd(%rip),%ymm5 # b470 <_sk_clut_4D_avx+0x2415>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,244,113,0,0 // vbroadcastss 0x71f4(%rip),%ymm5 # b47c <_sk_clut_4D_avx+0x2419>
+ .byte 196,226,125,24,45,244,113,0,0 // vbroadcastss 0x71f4(%rip),%ymm5 # b474 <_sk_clut_4D_avx+0x2419>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,231,113,0,0 // vbroadcastss 0x71e7(%rip),%ymm7 # b480 <_sk_clut_4D_avx+0x241d>
+ .byte 196,226,125,24,61,231,113,0,0 // vbroadcastss 0x71e7(%rip),%ymm7 # b478 <_sk_clut_4D_avx+0x241d>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,222,113,0,0 // vbroadcastss 0x71de(%rip),%ymm7 # b484 <_sk_clut_4D_avx+0x2421>
+ .byte 196,226,125,24,61,222,113,0,0 // vbroadcastss 0x71de(%rip),%ymm7 # b47c <_sk_clut_4D_avx+0x2421>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,209,113,0,0 // vbroadcastss 0x71d1(%rip),%ymm7 # b488 <_sk_clut_4D_avx+0x2425>
+ .byte 196,226,125,24,61,209,113,0,0 // vbroadcastss 0x71d1(%rip),%ymm7 # b480 <_sk_clut_4D_avx+0x2425>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,198,113,0,0 // vbroadcastss 0x71c6(%rip),%ymm7 # b48c <_sk_clut_4D_avx+0x2429>
+ .byte 196,226,125,24,61,198,113,0,0 // vbroadcastss 0x71c6(%rip),%ymm7 # b484 <_sk_clut_4D_avx+0x2429>
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
@@ -28408,27 +28427,27 @@ _sk_load_565_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,109,255,255,255 // ja 424e <_sk_load_565_dst_avx+0x26>
+ .byte 15,135,109,255,255,255 // ja 4246 <_sk_load_565_dst_avx+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 4350 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 4348 <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,75,255,255,255 // jmpq 424e <_sk_load_565_dst_avx+0x26>
+ .byte 233,75,255,255,255 // jmpq 4246 <_sk_load_565_dst_avx+0x26>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,46,255,255,255 // jmpq 424e <_sk_load_565_dst_avx+0x26>
+ .byte 233,46,255,255,255 // jmpq 4246 <_sk_load_565_dst_avx+0x26>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,1,255,255,255 // jmpq 424e <_sk_load_565_dst_avx+0x26>
+ .byte 233,1,255,255,255 // jmpq 4246 <_sk_load_565_dst_avx+0x26>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28500,23 +28519,23 @@ _sk_gather_565_avx:
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm2
- .byte 196,226,125,24,5,82,112,0,0 // vbroadcastss 0x7052(%rip),%ymm0 # b490 <_sk_clut_4D_avx+0x242d>
+ .byte 196,226,125,24,5,82,112,0,0 // vbroadcastss 0x7052(%rip),%ymm0 # b488 <_sk_clut_4D_avx+0x242d>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,69,112,0,0 // vbroadcastss 0x7045(%rip),%ymm1 # b494 <_sk_clut_4D_avx+0x2431>
+ .byte 196,226,125,24,13,69,112,0,0 // vbroadcastss 0x7045(%rip),%ymm1 # b48c <_sk_clut_4D_avx+0x2431>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,60,112,0,0 // vbroadcastss 0x703c(%rip),%ymm1 # b498 <_sk_clut_4D_avx+0x2435>
+ .byte 196,226,125,24,13,60,112,0,0 // vbroadcastss 0x703c(%rip),%ymm1 # b490 <_sk_clut_4D_avx+0x2435>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,47,112,0,0 // vbroadcastss 0x702f(%rip),%ymm3 # b49c <_sk_clut_4D_avx+0x2439>
+ .byte 196,226,125,24,29,47,112,0,0 // vbroadcastss 0x702f(%rip),%ymm3 # b494 <_sk_clut_4D_avx+0x2439>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,38,112,0,0 // vbroadcastss 0x7026(%rip),%ymm3 # b4a0 <_sk_clut_4D_avx+0x243d>
+ .byte 196,226,125,24,29,38,112,0,0 // vbroadcastss 0x7026(%rip),%ymm3 # b498 <_sk_clut_4D_avx+0x243d>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,25,112,0,0 // vbroadcastss 0x7019(%rip),%ymm3 # b4a4 <_sk_clut_4D_avx+0x2441>
+ .byte 196,226,125,24,29,25,112,0,0 // vbroadcastss 0x7019(%rip),%ymm3 # b49c <_sk_clut_4D_avx+0x2441>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,14,112,0,0 // vbroadcastss 0x700e(%rip),%ymm3 # b4a8 <_sk_clut_4D_avx+0x2445>
+ .byte 196,226,125,24,29,14,112,0,0 // vbroadcastss 0x700e(%rip),%ymm3 # b4a0 <_sk_clut_4D_avx+0x2445>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_avx
@@ -28531,14 +28550,14 @@ _sk_store_565_avx:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,240,111,0,0 // vbroadcastss 0x6ff0(%rip),%ymm8 # b4ac <_sk_clut_4D_avx+0x2449>
+ .byte 196,98,125,24,5,240,111,0,0 // vbroadcastss 0x6ff0(%rip),%ymm8 # b4a4 <_sk_clut_4D_avx+0x2449>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,201,111,0,0 // vbroadcastss 0x6fc9(%rip),%ymm10 # b4b0 <_sk_clut_4D_avx+0x244d>
+ .byte 196,98,125,24,21,201,111,0,0 // vbroadcastss 0x6fc9(%rip),%ymm10 # b4a8 <_sk_clut_4D_avx+0x244d>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -28552,7 +28571,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 4538 <_sk_store_565_avx+0x9c>
+ .byte 117,11 // jne 4530 <_sk_store_565_avx+0x9c>
.byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28561,22 +28580,22 @@ _sk_store_565_avx:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 4533 <_sk_store_565_avx+0x97>
+ .byte 119,235 // ja 452b <_sk_store_565_avx+0x97>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,69,0,0,0 // lea 0x45(%rip),%r11 # 4598 <_sk_store_565_avx+0xfc>
+ .byte 76,141,29,69,0,0,0 // lea 0x45(%rip),%r11 # 4590 <_sk_store_565_avx+0xfc>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2)
- .byte 235,206 // jmp 4533 <_sk_store_565_avx+0x97>
+ .byte 235,206 // jmp 452b <_sk_store_565_avx+0x97>
.byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2)
.byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2)
- .byte 235,190 // jmp 4533 <_sk_store_565_avx+0x97>
+ .byte 235,190 // jmp 452b <_sk_store_565_avx+0x97>
.byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2)
.byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2)
.byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2)
.byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2)
- .byte 235,158 // jmp 4533 <_sk_store_565_avx+0x97>
+ .byte 235,158 // jmp 452b <_sk_store_565_avx+0x97>
.byte 15,31,0 // nopl (%rax)
.byte 196 // (bad)
.byte 255 // (bad)
@@ -28615,31 +28634,31 @@ _sk_load_4444_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,153,0,0,0 // jne 466d <_sk_load_4444_avx+0xb9>
+ .byte 15,133,153,0,0,0 // jne 4665 <_sk_load_4444_avx+0xb9>
.byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm3
- .byte 196,226,125,24,5,190,110,0,0 // vbroadcastss 0x6ebe(%rip),%ymm0 # b4b4 <_sk_clut_4D_avx+0x2451>
+ .byte 196,226,125,24,5,190,110,0,0 // vbroadcastss 0x6ebe(%rip),%ymm0 # b4ac <_sk_clut_4D_avx+0x2451>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,177,110,0,0 // vbroadcastss 0x6eb1(%rip),%ymm1 # b4b8 <_sk_clut_4D_avx+0x2455>
+ .byte 196,226,125,24,13,177,110,0,0 // vbroadcastss 0x6eb1(%rip),%ymm1 # b4b0 <_sk_clut_4D_avx+0x2455>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,168,110,0,0 // vbroadcastss 0x6ea8(%rip),%ymm1 # b4bc <_sk_clut_4D_avx+0x2459>
+ .byte 196,226,125,24,13,168,110,0,0 // vbroadcastss 0x6ea8(%rip),%ymm1 # b4b4 <_sk_clut_4D_avx+0x2459>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,155,110,0,0 // vbroadcastss 0x6e9b(%rip),%ymm2 # b4c0 <_sk_clut_4D_avx+0x245d>
+ .byte 196,226,125,24,21,155,110,0,0 // vbroadcastss 0x6e9b(%rip),%ymm2 # b4b8 <_sk_clut_4D_avx+0x245d>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,146,110,0,0 // vbroadcastss 0x6e92(%rip),%ymm2 # b4c4 <_sk_clut_4D_avx+0x2461>
+ .byte 196,226,125,24,21,146,110,0,0 // vbroadcastss 0x6e92(%rip),%ymm2 # b4bc <_sk_clut_4D_avx+0x2461>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,133,110,0,0 // vbroadcastss 0x6e85(%rip),%ymm8 # b4c8 <_sk_clut_4D_avx+0x2465>
+ .byte 196,98,125,24,5,133,110,0,0 // vbroadcastss 0x6e85(%rip),%ymm8 # b4c0 <_sk_clut_4D_avx+0x2465>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,123,110,0,0 // vbroadcastss 0x6e7b(%rip),%ymm8 # b4cc <_sk_clut_4D_avx+0x2469>
+ .byte 196,98,125,24,5,123,110,0,0 // vbroadcastss 0x6e7b(%rip),%ymm8 # b4c4 <_sk_clut_4D_avx+0x2469>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,109,110,0,0 // vbroadcastss 0x6e6d(%rip),%ymm8 # b4d0 <_sk_clut_4D_avx+0x246d>
+ .byte 196,98,125,24,5,109,110,0,0 // vbroadcastss 0x6e6d(%rip),%ymm8 # b4c8 <_sk_clut_4D_avx+0x246d>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28649,27 +28668,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,85,255,255,255 // ja 45da <_sk_load_4444_avx+0x26>
+ .byte 15,135,85,255,255,255 // ja 45d2 <_sk_load_4444_avx+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 46f4 <_sk_load_4444_avx+0x140>
+ .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 46ec <_sk_load_4444_avx+0x140>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,51,255,255,255 // jmpq 45da <_sk_load_4444_avx+0x26>
+ .byte 233,51,255,255,255 // jmpq 45d2 <_sk_load_4444_avx+0x26>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,22,255,255,255 // jmpq 45da <_sk_load_4444_avx+0x26>
+ .byte 233,22,255,255,255 // jmpq 45d2 <_sk_load_4444_avx+0x26>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,233,254,255,255 // jmpq 45da <_sk_load_4444_avx+0x26>
+ .byte 233,233,254,255,255 // jmpq 45d2 <_sk_load_4444_avx+0x26>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28706,31 +28725,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,153,0,0,0 // jne 47c9 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,153,0,0,0 // jne 47c1 <_sk_load_4444_dst_avx+0xb9>
.byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4
.byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5
.byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,93,24,253,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm7
- .byte 196,226,125,24,37,130,109,0,0 // vbroadcastss 0x6d82(%rip),%ymm4 # b4d4 <_sk_clut_4D_avx+0x2471>
+ .byte 196,226,125,24,37,130,109,0,0 // vbroadcastss 0x6d82(%rip),%ymm4 # b4cc <_sk_clut_4D_avx+0x2471>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,117,109,0,0 // vbroadcastss 0x6d75(%rip),%ymm5 # b4d8 <_sk_clut_4D_avx+0x2475>
+ .byte 196,226,125,24,45,117,109,0,0 // vbroadcastss 0x6d75(%rip),%ymm5 # b4d0 <_sk_clut_4D_avx+0x2475>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,108,109,0,0 // vbroadcastss 0x6d6c(%rip),%ymm5 # b4dc <_sk_clut_4D_avx+0x2479>
+ .byte 196,226,125,24,45,108,109,0,0 // vbroadcastss 0x6d6c(%rip),%ymm5 # b4d4 <_sk_clut_4D_avx+0x2479>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,95,109,0,0 // vbroadcastss 0x6d5f(%rip),%ymm6 # b4e0 <_sk_clut_4D_avx+0x247d>
+ .byte 196,226,125,24,53,95,109,0,0 // vbroadcastss 0x6d5f(%rip),%ymm6 # b4d8 <_sk_clut_4D_avx+0x247d>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,86,109,0,0 // vbroadcastss 0x6d56(%rip),%ymm6 # b4e4 <_sk_clut_4D_avx+0x2481>
+ .byte 196,226,125,24,53,86,109,0,0 // vbroadcastss 0x6d56(%rip),%ymm6 # b4dc <_sk_clut_4D_avx+0x2481>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,73,109,0,0 // vbroadcastss 0x6d49(%rip),%ymm8 # b4e8 <_sk_clut_4D_avx+0x2485>
+ .byte 196,98,125,24,5,73,109,0,0 // vbroadcastss 0x6d49(%rip),%ymm8 # b4e0 <_sk_clut_4D_avx+0x2485>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,63,109,0,0 // vbroadcastss 0x6d3f(%rip),%ymm8 # b4ec <_sk_clut_4D_avx+0x2489>
+ .byte 196,98,125,24,5,63,109,0,0 // vbroadcastss 0x6d3f(%rip),%ymm8 # b4e4 <_sk_clut_4D_avx+0x2489>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,49,109,0,0 // vbroadcastss 0x6d31(%rip),%ymm8 # b4f0 <_sk_clut_4D_avx+0x248d>
+ .byte 196,98,125,24,5,49,109,0,0 // vbroadcastss 0x6d31(%rip),%ymm8 # b4e8 <_sk_clut_4D_avx+0x248d>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28740,27 +28759,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,85,255,255,255 // ja 4736 <_sk_load_4444_dst_avx+0x26>
+ .byte 15,135,85,255,255,255 // ja 472e <_sk_load_4444_dst_avx+0x26>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 4850 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 4848 <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,51,255,255,255 // jmpq 4736 <_sk_load_4444_dst_avx+0x26>
+ .byte 233,51,255,255,255 // jmpq 472e <_sk_load_4444_dst_avx+0x26>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,22,255,255,255 // jmpq 4736 <_sk_load_4444_dst_avx+0x26>
+ .byte 233,22,255,255,255 // jmpq 472e <_sk_load_4444_dst_avx+0x26>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,233,254,255,255 // jmpq 4736 <_sk_load_4444_dst_avx+0x26>
+ .byte 233,233,254,255,255 // jmpq 472e <_sk_load_4444_dst_avx+0x26>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28832,25 +28851,25 @@ _sk_gather_4444_avx:
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm3
- .byte 196,226,125,24,5,182,107,0,0 // vbroadcastss 0x6bb6(%rip),%ymm0 # b4f4 <_sk_clut_4D_avx+0x2491>
+ .byte 196,226,125,24,5,182,107,0,0 // vbroadcastss 0x6bb6(%rip),%ymm0 # b4ec <_sk_clut_4D_avx+0x2491>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,169,107,0,0 // vbroadcastss 0x6ba9(%rip),%ymm1 # b4f8 <_sk_clut_4D_avx+0x2495>
+ .byte 196,226,125,24,13,169,107,0,0 // vbroadcastss 0x6ba9(%rip),%ymm1 # b4f0 <_sk_clut_4D_avx+0x2495>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,160,107,0,0 // vbroadcastss 0x6ba0(%rip),%ymm1 # b4fc <_sk_clut_4D_avx+0x2499>
+ .byte 196,226,125,24,13,160,107,0,0 // vbroadcastss 0x6ba0(%rip),%ymm1 # b4f4 <_sk_clut_4D_avx+0x2499>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,147,107,0,0 // vbroadcastss 0x6b93(%rip),%ymm2 # b500 <_sk_clut_4D_avx+0x249d>
+ .byte 196,226,125,24,21,147,107,0,0 // vbroadcastss 0x6b93(%rip),%ymm2 # b4f8 <_sk_clut_4D_avx+0x249d>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,138,107,0,0 // vbroadcastss 0x6b8a(%rip),%ymm2 # b504 <_sk_clut_4D_avx+0x24a1>
+ .byte 196,226,125,24,21,138,107,0,0 // vbroadcastss 0x6b8a(%rip),%ymm2 # b4fc <_sk_clut_4D_avx+0x24a1>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,125,107,0,0 // vbroadcastss 0x6b7d(%rip),%ymm8 # b508 <_sk_clut_4D_avx+0x24a5>
+ .byte 196,98,125,24,5,125,107,0,0 // vbroadcastss 0x6b7d(%rip),%ymm8 # b500 <_sk_clut_4D_avx+0x24a5>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,115,107,0,0 // vbroadcastss 0x6b73(%rip),%ymm8 # b50c <_sk_clut_4D_avx+0x24a9>
+ .byte 196,98,125,24,5,115,107,0,0 // vbroadcastss 0x6b73(%rip),%ymm8 # b504 <_sk_clut_4D_avx+0x24a9>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,101,107,0,0 // vbroadcastss 0x6b65(%rip),%ymm8 # b510 <_sk_clut_4D_avx+0x24ad>
+ .byte 196,98,125,24,5,101,107,0,0 // vbroadcastss 0x6b65(%rip),%ymm8 # b508 <_sk_clut_4D_avx+0x24ad>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28867,7 +28886,7 @@ _sk_store_4444_avx:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,64,107,0,0 // vbroadcastss 0x6b40(%rip),%ymm8 # b514 <_sk_clut_4D_avx+0x24b1>
+ .byte 196,98,125,24,5,64,107,0,0 // vbroadcastss 0x6b40(%rip),%ymm8 # b50c <_sk_clut_4D_avx+0x24b1>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -28894,7 +28913,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 4a6e <_sk_store_4444_avx+0xba>
+ .byte 117,11 // jne 4a66 <_sk_store_4444_avx+0xba>
.byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28903,22 +28922,22 @@ _sk_store_4444_avx:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 4a69 <_sk_store_4444_avx+0xb5>
+ .byte 119,235 // ja 4a61 <_sk_store_4444_avx+0xb5>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,67,0,0,0 // lea 0x43(%rip),%r11 # 4acc <_sk_store_4444_avx+0x118>
+ .byte 76,141,29,67,0,0,0 // lea 0x43(%rip),%r11 # 4ac4 <_sk_store_4444_avx+0x118>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2)
- .byte 235,206 // jmp 4a69 <_sk_store_4444_avx+0xb5>
+ .byte 235,206 // jmp 4a61 <_sk_store_4444_avx+0xb5>
.byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2)
.byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2)
- .byte 235,190 // jmp 4a69 <_sk_store_4444_avx+0xb5>
+ .byte 235,190 // jmp 4a61 <_sk_store_4444_avx+0xb5>
.byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2)
.byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2)
.byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2)
.byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2)
- .byte 235,158 // jmp 4a69 <_sk_store_4444_avx+0xb5>
+ .byte 235,158 // jmp 4a61 <_sk_store_4444_avx+0xb5>
.byte 144 // nop
.byte 198 // (bad)
.byte 255 // (bad)
@@ -28957,12 +28976,12 @@ _sk_load_8888_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,136,0,0,0 // jne 4b91 <_sk_load_8888_avx+0xa9>
+ .byte 15,133,136,0,0,0 // jne 4b89 <_sk_load_8888_avx+0xa9>
.byte 196,65,125,16,12,153 // vmovupd (%r9,%rbx,4),%ymm9
- .byte 197,125,40,21,9,108,0,0 // vmovapd 0x6c09(%rip),%ymm10 # b720 <_sk_clut_4D_avx+0x26bd>
+ .byte 197,125,40,21,241,107,0,0 // vmovapd 0x6bf1(%rip),%ymm10 # b700 <_sk_clut_4D_avx+0x26a5>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,239,105,0,0 // vbroadcastss 0x69ef(%rip),%ymm8 # b518 <_sk_clut_4D_avx+0x24b5>
+ .byte 196,98,125,24,5,239,105,0,0 // vbroadcastss 0x69ef(%rip),%ymm8 # b510 <_sk_clut_4D_avx+0x24b5>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -28990,21 +29009,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,101,255,255,255 // ja 4b0f <_sk_load_8888_avx+0x27>
+ .byte 15,135,101,255,255,255 // ja 4b07 <_sk_load_8888_avx+0x27>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 4c48 <_sk_load_8888_avx+0x160>
+ .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 4c40 <_sk_load_8888_avx+0x160>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,153 // vmovss (%r9,%rbx,4),%xmm9
- .byte 233,70,255,255,255 // jmpq 4b0f <_sk_load_8888_avx+0x27>
+ .byte 233,70,255,255,255 // jmpq 4b07 <_sk_load_8888_avx+0x27>
.byte 196,193,121,110,68,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,193,123,16,4,153 // vmovsd (%r9,%rbx,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,31,255,255,255 // jmpq 4b0f <_sk_load_8888_avx+0x27>
+ .byte 233,31,255,255,255 // jmpq 4b07 <_sk_load_8888_avx+0x27>
.byte 196,193,121,110,68,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -29018,9 +29037,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,193,121,16,4,153 // vmovupd (%r9,%rbx,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,202,254,255,255 // jmpq 4b0f <_sk_load_8888_avx+0x27>
+ .byte 233,202,254,255,255 // jmpq 4b07 <_sk_load_8888_avx+0x27>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 4c49 <_sk_load_8888_avx+0x161>
+ .byte 118,255 // jbe 4c41 <_sk_load_8888_avx+0x161>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -29053,12 +29072,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,136,0,0,0 // jne 4d0d <_sk_load_8888_dst_avx+0xa9>
+ .byte 15,133,136,0,0,0 // jne 4d05 <_sk_load_8888_dst_avx+0xa9>
.byte 196,65,125,16,12,153 // vmovupd (%r9,%rbx,4),%ymm9
- .byte 197,125,40,21,173,106,0,0 // vmovapd 0x6aad(%rip),%ymm10 # b740 <_sk_clut_4D_avx+0x26dd>
+ .byte 197,125,40,21,149,106,0,0 // vmovapd 0x6a95(%rip),%ymm10 # b720 <_sk_clut_4D_avx+0x26c5>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,119,104,0,0 // vbroadcastss 0x6877(%rip),%ymm8 # b51c <_sk_clut_4D_avx+0x24b9>
+ .byte 196,98,125,24,5,119,104,0,0 // vbroadcastss 0x6877(%rip),%ymm8 # b514 <_sk_clut_4D_avx+0x24b9>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -29086,21 +29105,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,101,255,255,255 // ja 4c8b <_sk_load_8888_dst_avx+0x27>
+ .byte 15,135,101,255,255,255 // ja 4c83 <_sk_load_8888_dst_avx+0x27>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 4dc4 <_sk_load_8888_dst_avx+0x160>
+ .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 4dbc <_sk_load_8888_dst_avx+0x160>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,153 // vmovss (%r9,%rbx,4),%xmm9
- .byte 233,70,255,255,255 // jmpq 4c8b <_sk_load_8888_dst_avx+0x27>
+ .byte 233,70,255,255,255 // jmpq 4c83 <_sk_load_8888_dst_avx+0x27>
.byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,193,123,16,36,153 // vmovsd (%r9,%rbx,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,31,255,255,255 // jmpq 4c8b <_sk_load_8888_dst_avx+0x27>
+ .byte 233,31,255,255,255 // jmpq 4c83 <_sk_load_8888_dst_avx+0x27>
.byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -29114,9 +29133,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,193,121,16,36,153 // vmovupd (%r9,%rbx,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,202,254,255,255 // jmpq 4c8b <_sk_load_8888_dst_avx+0x27>
+ .byte 233,202,254,255,255 // jmpq 4c83 <_sk_load_8888_dst_avx+0x27>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 4dc5 <_sk_load_8888_dst_avx+0x161>
+ .byte 118,255 // jbe 4dbd <_sk_load_8888_dst_avx+0x161>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -29173,10 +29192,10 @@ _sk_gather_8888_avx:
.byte 73,193,234,32 // shr $0x20,%r10
.byte 196,131,121,34,28,145,3 // vpinsrd $0x3,(%r9,%r10,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,213,104,0,0 // vmovaps 0x68d5(%rip),%ymm10 # b760 <_sk_clut_4D_avx+0x26fd>
+ .byte 197,124,40,21,189,104,0,0 // vmovaps 0x68bd(%rip),%ymm10 # b740 <_sk_clut_4D_avx+0x26e5>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,131,102,0,0 // vbroadcastss 0x6683(%rip),%ymm9 # b520 <_sk_clut_4D_avx+0x24bd>
+ .byte 196,98,125,24,13,131,102,0,0 // vbroadcastss 0x6683(%rip),%ymm9 # b518 <_sk_clut_4D_avx+0x24bd>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -29210,7 +29229,7 @@ _sk_store_8888_avx:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,5,102,0,0 // vbroadcastss 0x6605(%rip),%ymm8 # b524 <_sk_clut_4D_avx+0x24c1>
+ .byte 196,98,125,24,5,5,102,0,0 // vbroadcastss 0x6605(%rip),%ymm8 # b51c <_sk_clut_4D_avx+0x24c1>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29235,7 +29254,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 4fae <_sk_store_8888_avx+0xb0>
+ .byte 117,11 // jne 4fa6 <_sk_store_8888_avx+0xb0>
.byte 196,65,124,17,4,153 // vmovups %ymm8,(%r9,%rbx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -29244,17 +29263,17 @@ _sk_store_8888_avx:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 4fa9 <_sk_store_8888_avx+0xab>
+ .byte 119,235 // ja 4fa1 <_sk_store_8888_avx+0xab>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,83,0,0,0 // lea 0x53(%rip),%r11 # 501c <_sk_store_8888_avx+0x11e>
+ .byte 76,141,29,83,0,0,0 // lea 0x53(%rip),%r11 # 5014 <_sk_store_8888_avx+0x11e>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp 4fa9 <_sk_store_8888_avx+0xab>
+ .byte 235,207 // jmp 4fa1 <_sk_store_8888_avx+0xab>
.byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
.byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 235,191 // jmp 4fa9 <_sk_store_8888_avx+0xab>
+ .byte 235,191 // jmp 4fa1 <_sk_store_8888_avx+0xab>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29262,7 +29281,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,122,17,76,153,16 // vmovss %xmm9,0x10(%r9,%rbx,4)
.byte 196,65,121,17,4,153 // vmovupd %xmm8,(%r9,%rbx,4)
- .byte 235,142 // jmp 4fa9 <_sk_store_8888_avx+0xab>
+ .byte 235,142 // jmp 4fa1 <_sk_store_8888_avx+0xab>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -29298,12 +29317,12 @@ _sk_load_bgra_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,136,0,0,0 // jne 50e1 <_sk_load_bgra_avx+0xa9>
+ .byte 15,133,136,0,0,0 // jne 50d9 <_sk_load_bgra_avx+0xa9>
.byte 196,65,125,16,12,153 // vmovupd (%r9,%rbx,4),%ymm9
- .byte 197,125,40,21,25,103,0,0 // vmovapd 0x6719(%rip),%ymm10 # b780 <_sk_clut_4D_avx+0x271d>
+ .byte 197,125,40,21,1,103,0,0 // vmovapd 0x6701(%rip),%ymm10 # b760 <_sk_clut_4D_avx+0x2705>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,175,100,0,0 // vbroadcastss 0x64af(%rip),%ymm8 # b528 <_sk_clut_4D_avx+0x24c5>
+ .byte 196,98,125,24,5,175,100,0,0 // vbroadcastss 0x64af(%rip),%ymm8 # b520 <_sk_clut_4D_avx+0x24c5>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -29331,21 +29350,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,101,255,255,255 // ja 505f <_sk_load_bgra_avx+0x27>
+ .byte 15,135,101,255,255,255 // ja 5057 <_sk_load_bgra_avx+0x27>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 5198 <_sk_load_bgra_avx+0x160>
+ .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 5190 <_sk_load_bgra_avx+0x160>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,153 // vmovss (%r9,%rbx,4),%xmm9
- .byte 233,70,255,255,255 // jmpq 505f <_sk_load_bgra_avx+0x27>
+ .byte 233,70,255,255,255 // jmpq 5057 <_sk_load_bgra_avx+0x27>
.byte 196,193,121,110,68,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,193,123,16,4,153 // vmovsd (%r9,%rbx,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,31,255,255,255 // jmpq 505f <_sk_load_bgra_avx+0x27>
+ .byte 233,31,255,255,255 // jmpq 5057 <_sk_load_bgra_avx+0x27>
.byte 196,193,121,110,68,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -29359,9 +29378,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,193,121,16,4,153 // vmovupd (%r9,%rbx,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,202,254,255,255 // jmpq 505f <_sk_load_bgra_avx+0x27>
+ .byte 233,202,254,255,255 // jmpq 5057 <_sk_load_bgra_avx+0x27>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 5199 <_sk_load_bgra_avx+0x161>
+ .byte 118,255 // jbe 5191 <_sk_load_bgra_avx+0x161>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -29394,12 +29413,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,136,0,0,0 // jne 525d <_sk_load_bgra_dst_avx+0xa9>
+ .byte 15,133,136,0,0,0 // jne 5255 <_sk_load_bgra_dst_avx+0xa9>
.byte 196,65,125,16,12,153 // vmovupd (%r9,%rbx,4),%ymm9
- .byte 197,125,40,21,189,101,0,0 // vmovapd 0x65bd(%rip),%ymm10 # b7a0 <_sk_clut_4D_avx+0x273d>
+ .byte 197,125,40,21,165,101,0,0 // vmovapd 0x65a5(%rip),%ymm10 # b780 <_sk_clut_4D_avx+0x2725>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,55,99,0,0 // vbroadcastss 0x6337(%rip),%ymm8 # b52c <_sk_clut_4D_avx+0x24c9>
+ .byte 196,98,125,24,5,55,99,0,0 // vbroadcastss 0x6337(%rip),%ymm8 # b524 <_sk_clut_4D_avx+0x24c9>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -29427,21 +29446,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,101,255,255,255 // ja 51db <_sk_load_bgra_dst_avx+0x27>
+ .byte 15,135,101,255,255,255 // ja 51d3 <_sk_load_bgra_dst_avx+0x27>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 5314 <_sk_load_bgra_dst_avx+0x160>
+ .byte 76,141,29,147,0,0,0 // lea 0x93(%rip),%r11 # 530c <_sk_load_bgra_dst_avx+0x160>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,153 // vmovss (%r9,%rbx,4),%xmm9
- .byte 233,70,255,255,255 // jmpq 51db <_sk_load_bgra_dst_avx+0x27>
+ .byte 233,70,255,255,255 // jmpq 51d3 <_sk_load_bgra_dst_avx+0x27>
.byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,193,123,16,36,153 // vmovsd (%r9,%rbx,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,31,255,255,255 // jmpq 51db <_sk_load_bgra_dst_avx+0x27>
+ .byte 233,31,255,255,255 // jmpq 51d3 <_sk_load_bgra_dst_avx+0x27>
.byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -29455,9 +29474,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,193,121,16,36,153 // vmovupd (%r9,%rbx,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,202,254,255,255 // jmpq 51db <_sk_load_bgra_dst_avx+0x27>
+ .byte 233,202,254,255,255 // jmpq 51d3 <_sk_load_bgra_dst_avx+0x27>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 5315 <_sk_load_bgra_dst_avx+0x161>
+ .byte 118,255 // jbe 530d <_sk_load_bgra_dst_avx+0x161>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -29514,10 +29533,10 @@ _sk_gather_bgra_avx:
.byte 73,193,234,32 // shr $0x20,%r10
.byte 196,131,121,34,28,145,3 // vpinsrd $0x3,(%r9,%r10,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,229,99,0,0 // vmovaps 0x63e5(%rip),%ymm9 # b7c0 <_sk_clut_4D_avx+0x275d>
+ .byte 197,124,40,13,205,99,0,0 // vmovaps 0x63cd(%rip),%ymm9 # b7a0 <_sk_clut_4D_avx+0x2745>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,67,97,0,0 // vbroadcastss 0x6143(%rip),%ymm10 # b530 <_sk_clut_4D_avx+0x24cd>
+ .byte 196,98,125,24,21,67,97,0,0 // vbroadcastss 0x6143(%rip),%ymm10 # b528 <_sk_clut_4D_avx+0x24cd>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -29551,7 +29570,7 @@ _sk_store_bgra_avx:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,218 // movslq %edx,%rbx
- .byte 196,98,125,24,5,197,96,0,0 // vbroadcastss 0x60c5(%rip),%ymm8 # b534 <_sk_clut_4D_avx+0x24d1>
+ .byte 196,98,125,24,5,197,96,0,0 // vbroadcastss 0x60c5(%rip),%ymm8 # b52c <_sk_clut_4D_avx+0x24d1>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29576,7 +29595,7 @@ _sk_store_bgra_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 54fe <_sk_store_bgra_avx+0xb0>
+ .byte 117,11 // jne 54f6 <_sk_store_bgra_avx+0xb0>
.byte 196,65,124,17,4,153 // vmovups %ymm8,(%r9,%rbx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -29585,17 +29604,17 @@ _sk_store_bgra_avx:
.byte 65,128,226,7 // and $0x7,%r10b
.byte 65,254,202 // dec %r10b
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 54f9 <_sk_store_bgra_avx+0xab>
+ .byte 119,235 // ja 54f1 <_sk_store_bgra_avx+0xab>
.byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,83,0,0,0 // lea 0x53(%rip),%r11 # 556c <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,29,83,0,0,0 // lea 0x53(%rip),%r11 # 5564 <_sk_store_bgra_avx+0x11e>
.byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp 54f9 <_sk_store_bgra_avx+0xab>
+ .byte 235,207 // jmp 54f1 <_sk_store_bgra_avx+0xab>
.byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
.byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 235,191 // jmp 54f9 <_sk_store_bgra_avx+0xab>
+ .byte 235,191 // jmp 54f1 <_sk_store_bgra_avx+0xab>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29603,7 +29622,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,122,17,76,153,16 // vmovss %xmm9,0x10(%r9,%rbx,4)
.byte 196,65,121,17,4,153 // vmovupd %xmm8,(%r9,%rbx,4)
- .byte 235,142 // jmp 54f9 <_sk_store_bgra_avx+0xab>
+ .byte 235,142 // jmp 54f1 <_sk_store_bgra_avx+0xab>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -29643,7 +29662,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,254,127,100,36,128 // vmovdqu %ymm4,-0x80(%rsp)
- .byte 15,133,145,2,0,0 // jne 5855 <_sk_load_f16_avx+0x2cd>
+ .byte 15,133,145,2,0,0 // jne 584d <_sk_load_f16_avx+0x2cd>
.byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8
.byte 196,193,121,16,84,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm2
.byte 196,193,121,16,76,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm1
@@ -29661,13 +29680,13 @@ _sk_load_f16_avx:
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,98,125,24,37,23,95,0,0 // vbroadcastss 0x5f17(%rip),%ymm12 # b538 <_sk_clut_4D_avx+0x24d5>
+ .byte 196,98,125,24,37,23,95,0,0 // vbroadcastss 0x5f17(%rip),%ymm12 # b530 <_sk_clut_4D_avx+0x24d5>
.byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1
.byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0
.byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14
- .byte 196,98,121,24,29,3,95,0,0 // vbroadcastss 0x5f03(%rip),%xmm11 # b53c <_sk_clut_4D_avx+0x24d9>
+ .byte 196,98,121,24,29,3,95,0,0 // vbroadcastss 0x5f03(%rip),%xmm11 # b534 <_sk_clut_4D_avx+0x24d9>
.byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3
- .byte 196,98,121,24,45,249,94,0,0 // vbroadcastss 0x5ef9(%rip),%xmm13 # b540 <_sk_clut_4D_avx+0x24dd>
+ .byte 196,98,121,24,45,249,94,0,0 // vbroadcastss 0x5ef9(%rip),%xmm13 # b538 <_sk_clut_4D_avx+0x24dd>
.byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3
.byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -29681,7 +29700,7 @@ _sk_load_f16_avx:
.byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
.byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0
.byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1
- .byte 196,226,121,24,29,175,94,0,0 // vbroadcastss 0x5eaf(%rip),%xmm3 # b544 <_sk_clut_4D_avx+0x24e1>
+ .byte 196,226,121,24,29,175,94,0,0 // vbroadcastss 0x5eaf(%rip),%xmm3 # b53c <_sk_clut_4D_avx+0x24e1>
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
@@ -29774,29 +29793,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 58bb <_sk_load_f16_avx+0x333>
+ .byte 116,85 // je 58b3 <_sk_load_f16_avx+0x333>
.byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 58bb <_sk_load_f16_avx+0x333>
+ .byte 114,72 // jb 58b3 <_sk_load_f16_avx+0x333>
.byte 196,193,123,16,84,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 58c8 <_sk_load_f16_avx+0x340>
+ .byte 116,72 // je 58c0 <_sk_load_f16_avx+0x340>
.byte 196,193,105,22,84,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm2,%xmm2
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 58c8 <_sk_load_f16_avx+0x340>
+ .byte 114,59 // jb 58c0 <_sk_load_f16_avx+0x340>
.byte 196,193,123,16,76,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm1
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,65,253,255,255 // je 55df <_sk_load_f16_avx+0x57>
+ .byte 15,132,65,253,255,255 // je 55d7 <_sk_load_f16_avx+0x57>
.byte 196,193,113,22,76,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm1,%xmm1
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,48,253,255,255 // jb 55df <_sk_load_f16_avx+0x57>
+ .byte 15,130,48,253,255,255 // jb 55d7 <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9
- .byte 233,36,253,255,255 // jmpq 55df <_sk_load_f16_avx+0x57>
+ .byte 233,36,253,255,255 // jmpq 55d7 <_sk_load_f16_avx+0x57>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,23,253,255,255 // jmpq 55df <_sk_load_f16_avx+0x57>
+ .byte 233,23,253,255,255 // jmpq 55d7 <_sk_load_f16_avx+0x57>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,14,253,255,255 // jmpq 55df <_sk_load_f16_avx+0x57>
+ .byte 233,14,253,255,255 // jmpq 55d7 <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -29815,7 +29834,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,254,127,68,36,128 // vmovdqu %ymm0,-0x80(%rsp)
- .byte 15,133,145,2,0,0 // jne 5b9e <_sk_load_f16_dst_avx+0x2cd>
+ .byte 15,133,145,2,0,0 // jne 5b96 <_sk_load_f16_dst_avx+0x2cd>
.byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8
.byte 196,193,121,16,116,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm6
.byte 196,193,121,16,108,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm5
@@ -29833,13 +29852,13 @@ _sk_load_f16_dst_avx:
.byte 197,217,105,232 // vpunpckhwd %xmm0,%xmm4,%xmm5
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,98,125,24,37,222,91,0,0 // vbroadcastss 0x5bde(%rip),%ymm12 # b548 <_sk_clut_4D_avx+0x24e5>
+ .byte 196,98,125,24,37,222,91,0,0 // vbroadcastss 0x5bde(%rip),%ymm12 # b540 <_sk_clut_4D_avx+0x24e5>
.byte 196,193,92,84,236 // vandps %ymm12,%ymm4,%ymm5
.byte 197,220,87,229 // vxorps %ymm5,%ymm4,%ymm4
.byte 196,195,125,25,230,1 // vextractf128 $0x1,%ymm4,%xmm14
- .byte 196,98,121,24,29,202,91,0,0 // vbroadcastss 0x5bca(%rip),%xmm11 # b54c <_sk_clut_4D_avx+0x24e9>
+ .byte 196,98,121,24,29,202,91,0,0 // vbroadcastss 0x5bca(%rip),%xmm11 # b544 <_sk_clut_4D_avx+0x24e9>
.byte 196,193,8,87,251 // vxorps %xmm11,%xmm14,%xmm7
- .byte 196,98,121,24,45,192,91,0,0 // vbroadcastss 0x5bc0(%rip),%xmm13 # b550 <_sk_clut_4D_avx+0x24ed>
+ .byte 196,98,121,24,45,192,91,0,0 // vbroadcastss 0x5bc0(%rip),%xmm13 # b548 <_sk_clut_4D_avx+0x24ed>
.byte 197,145,102,255 // vpcmpgtd %xmm7,%xmm13,%xmm7
.byte 196,65,88,87,211 // vxorps %xmm11,%xmm4,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -29853,7 +29872,7 @@ _sk_load_f16_dst_avx:
.byte 196,227,93,24,231,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm4
.byte 197,220,86,229 // vorps %ymm5,%ymm4,%ymm4
.byte 196,227,125,25,229,1 // vextractf128 $0x1,%ymm4,%xmm5
- .byte 196,226,121,24,61,118,91,0,0 // vbroadcastss 0x5b76(%rip),%xmm7 # b554 <_sk_clut_4D_avx+0x24f1>
+ .byte 196,226,121,24,61,118,91,0,0 // vbroadcastss 0x5b76(%rip),%xmm7 # b54c <_sk_clut_4D_avx+0x24f1>
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4
@@ -29946,29 +29965,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 5c04 <_sk_load_f16_dst_avx+0x333>
+ .byte 116,85 // je 5bfc <_sk_load_f16_dst_avx+0x333>
.byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 5c04 <_sk_load_f16_dst_avx+0x333>
+ .byte 114,72 // jb 5bfc <_sk_load_f16_dst_avx+0x333>
.byte 196,193,123,16,116,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm6
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 5c11 <_sk_load_f16_dst_avx+0x340>
+ .byte 116,72 // je 5c09 <_sk_load_f16_dst_avx+0x340>
.byte 196,193,73,22,116,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm6,%xmm6
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 5c11 <_sk_load_f16_dst_avx+0x340>
+ .byte 114,59 // jb 5c09 <_sk_load_f16_dst_avx+0x340>
.byte 196,193,123,16,108,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm5
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,65,253,255,255 // je 5928 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,65,253,255,255 // je 5920 <_sk_load_f16_dst_avx+0x57>
.byte 196,193,81,22,108,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm5,%xmm5
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,48,253,255,255 // jb 5928 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,48,253,255,255 // jb 5920 <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9
- .byte 233,36,253,255,255 // jmpq 5928 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,36,253,255,255 // jmpq 5920 <_sk_load_f16_dst_avx+0x57>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,23,253,255,255 // jmpq 5928 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,23,253,255,255 // jmpq 5920 <_sk_load_f16_dst_avx+0x57>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,14,253,255,255 // jmpq 5928 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,14,253,255,255 // jmpq 5920 <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -30029,13 +30048,13 @@ _sk_gather_f16_avx:
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,98,125,24,37,52,88,0,0 // vbroadcastss 0x5834(%rip),%ymm12 # b558 <_sk_clut_4D_avx+0x24f5>
+ .byte 196,98,125,24,37,52,88,0,0 // vbroadcastss 0x5834(%rip),%ymm12 # b550 <_sk_clut_4D_avx+0x24f5>
.byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1
.byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0
.byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14
- .byte 196,98,121,24,29,32,88,0,0 // vbroadcastss 0x5820(%rip),%xmm11 # b55c <_sk_clut_4D_avx+0x24f9>
+ .byte 196,98,121,24,29,32,88,0,0 // vbroadcastss 0x5820(%rip),%xmm11 # b554 <_sk_clut_4D_avx+0x24f9>
.byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3
- .byte 196,98,121,24,45,22,88,0,0 // vbroadcastss 0x5816(%rip),%xmm13 # b560 <_sk_clut_4D_avx+0x24fd>
+ .byte 196,98,121,24,45,22,88,0,0 // vbroadcastss 0x5816(%rip),%xmm13 # b558 <_sk_clut_4D_avx+0x24fd>
.byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3
.byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -30049,7 +30068,7 @@ _sk_gather_f16_avx:
.byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
.byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0
.byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1
- .byte 196,226,121,24,29,204,87,0,0 // vbroadcastss 0x57cc(%rip),%xmm3 # b564 <_sk_clut_4D_avx+0x2501>
+ .byte 196,226,121,24,29,204,87,0,0 // vbroadcastss 0x57cc(%rip),%xmm3 # b55c <_sk_clut_4D_avx+0x2501>
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
@@ -30149,12 +30168,12 @@ _sk_store_f16_avx:
.byte 197,252,17,52,36 // vmovups %ymm6,(%rsp)
.byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
.byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp)
- .byte 196,98,125,24,13,236,85,0,0 // vbroadcastss 0x55ec(%rip),%ymm9 # b568 <_sk_clut_4D_avx+0x2505>
+ .byte 196,98,125,24,13,236,85,0,0 // vbroadcastss 0x55ec(%rip),%ymm9 # b560 <_sk_clut_4D_avx+0x2505>
.byte 196,65,124,84,209 // vandps %ymm9,%ymm0,%ymm10
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
.byte 196,65,124,87,218 // vxorps %ymm10,%ymm0,%ymm11
.byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,98,121,24,5,209,85,0,0 // vbroadcastss 0x55d1(%rip),%xmm8 # b56c <_sk_clut_4D_avx+0x2509>
+ .byte 196,98,121,24,5,209,85,0,0 // vbroadcastss 0x55d1(%rip),%xmm8 # b564 <_sk_clut_4D_avx+0x2509>
.byte 196,65,57,102,236 // vpcmpgtd %xmm12,%xmm8,%xmm13
.byte 196,65,57,102,243 // vpcmpgtd %xmm11,%xmm8,%xmm14
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
@@ -30164,7 +30183,7 @@ _sk_store_f16_avx:
.byte 196,67,13,24,242,1 // vinsertf128 $0x1,%xmm10,%ymm14,%ymm14
.byte 196,193,33,114,211,13 // vpsrld $0xd,%xmm11,%xmm11
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
- .byte 196,98,125,24,21,152,85,0,0 // vbroadcastss 0x5598(%rip),%ymm10 # b570 <_sk_clut_4D_avx+0x250d>
+ .byte 196,98,125,24,21,152,85,0,0 // vbroadcastss 0x5598(%rip),%ymm10 # b568 <_sk_clut_4D_avx+0x250d>
.byte 196,65,12,86,242 // vorps %ymm10,%ymm14,%ymm14
.byte 196,67,125,25,247,1 // vextractf128 $0x1,%ymm14,%xmm15
.byte 196,65,1,254,228 // vpaddd %xmm12,%xmm15,%xmm12
@@ -30251,7 +30270,7 @@ _sk_store_f16_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,70 // jne 61cc <_sk_store_f16_avx+0x274>
+ .byte 117,70 // jne 61c4 <_sk_store_f16_avx+0x274>
.byte 196,65,120,17,28,193 // vmovups %xmm11,(%r9,%rax,8)
.byte 196,65,120,17,84,193,16 // vmovups %xmm10,0x10(%r9,%rax,8)
.byte 196,65,120,17,76,193,32 // vmovups %xmm9,0x20(%r9,%rax,8)
@@ -30267,22 +30286,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,193 // vmovq %xmm11,(%r9,%rax,8)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,201 // je 61a1 <_sk_store_f16_avx+0x249>
+ .byte 116,201 // je 6199 <_sk_store_f16_avx+0x249>
.byte 196,65,121,23,92,193,8 // vmovhpd %xmm11,0x8(%r9,%rax,8)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,188 // jb 61a1 <_sk_store_f16_avx+0x249>
+ .byte 114,188 // jb 6199 <_sk_store_f16_avx+0x249>
.byte 196,65,121,214,84,193,16 // vmovq %xmm10,0x10(%r9,%rax,8)
- .byte 116,179 // je 61a1 <_sk_store_f16_avx+0x249>
+ .byte 116,179 // je 6199 <_sk_store_f16_avx+0x249>
.byte 196,65,121,23,84,193,24 // vmovhpd %xmm10,0x18(%r9,%rax,8)
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,166 // jb 61a1 <_sk_store_f16_avx+0x249>
+ .byte 114,166 // jb 6199 <_sk_store_f16_avx+0x249>
.byte 196,65,121,214,76,193,32 // vmovq %xmm9,0x20(%r9,%rax,8)
- .byte 116,157 // je 61a1 <_sk_store_f16_avx+0x249>
+ .byte 116,157 // je 6199 <_sk_store_f16_avx+0x249>
.byte 196,65,121,23,76,193,40 // vmovhpd %xmm9,0x28(%r9,%rax,8)
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,144 // jb 61a1 <_sk_store_f16_avx+0x249>
+ .byte 114,144 // jb 6199 <_sk_store_f16_avx+0x249>
.byte 196,65,121,214,68,193,48 // vmovq %xmm8,0x30(%r9,%rax,8)
- .byte 235,135 // jmp 61a1 <_sk_store_f16_avx+0x249>
+ .byte 235,135 // jmp 6199 <_sk_store_f16_avx+0x249>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -30297,7 +30316,7 @@ _sk_load_u16_be_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,253,0,0,0 // jne 633e <_sk_load_u16_be_avx+0x124>
+ .byte 15,133,253,0,0,0 // jne 6336 <_sk_load_u16_be_avx+0x124>
.byte 196,65,121,16,4,65 // vmovupd (%r9,%rax,2),%xmm8
.byte 196,193,121,16,84,65,16 // vmovupd 0x10(%r9,%rax,2),%xmm2
.byte 196,193,121,16,92,65,32 // vmovupd 0x20(%r9,%rax,2),%xmm3
@@ -30319,7 +30338,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,29,194,82,0,0 // vbroadcastss 0x52c2(%rip),%ymm11 # b574 <_sk_clut_4D_avx+0x2511>
+ .byte 196,98,125,24,29,194,82,0,0 // vbroadcastss 0x52c2(%rip),%ymm11 # b56c <_sk_clut_4D_avx+0x2511>
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,177,109,202 // vpunpckhqdq %xmm2,%xmm9,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -30353,29 +30372,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,65 // vmovsd (%r9,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,85 // je 63a4 <_sk_load_u16_be_avx+0x18a>
+ .byte 116,85 // je 639c <_sk_load_u16_be_avx+0x18a>
.byte 196,65,57,22,68,65,8 // vmovhpd 0x8(%r9,%rax,2),%xmm8,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,72 // jb 63a4 <_sk_load_u16_be_avx+0x18a>
+ .byte 114,72 // jb 639c <_sk_load_u16_be_avx+0x18a>
.byte 196,193,123,16,84,65,16 // vmovsd 0x10(%r9,%rax,2),%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 116,72 // je 63b1 <_sk_load_u16_be_avx+0x197>
+ .byte 116,72 // je 63a9 <_sk_load_u16_be_avx+0x197>
.byte 196,193,105,22,84,65,24 // vmovhpd 0x18(%r9,%rax,2),%xmm2,%xmm2
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,59 // jb 63b1 <_sk_load_u16_be_avx+0x197>
+ .byte 114,59 // jb 63a9 <_sk_load_u16_be_avx+0x197>
.byte 196,193,123,16,92,65,32 // vmovsd 0x20(%r9,%rax,2),%xmm3
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 15,132,213,254,255,255 // je 625c <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,213,254,255,255 // je 6254 <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,65,40 // vmovhpd 0x28(%r9,%rax,2),%xmm3,%xmm3
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,130,196,254,255,255 // jb 625c <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,196,254,255,255 // jb 6254 <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,65,48 // vmovq 0x30(%r9,%rax,2),%xmm9
- .byte 233,184,254,255,255 // jmpq 625c <_sk_load_u16_be_avx+0x42>
+ .byte 233,184,254,255,255 // jmpq 6254 <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,171,254,255,255 // jmpq 625c <_sk_load_u16_be_avx+0x42>
+ .byte 233,171,254,255,255 // jmpq 6254 <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,162,254,255,255 // jmpq 625c <_sk_load_u16_be_avx+0x42>
+ .byte 233,162,254,255,255 // jmpq 6254 <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -30392,7 +30411,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,243,0,0,0 // jne 64d8 <_sk_load_rgb_u16_be_avx+0x11e>
+ .byte 15,133,243,0,0,0 // jne 64d0 <_sk_load_rgb_u16_be_avx+0x11e>
.byte 196,193,122,111,4,65 // vmovdqu (%r9,%rax,2),%xmm0
.byte 196,193,122,111,84,65,12 // vmovdqu 0xc(%r9,%rax,2),%xmm2
.byte 196,193,122,111,76,65,24 // vmovdqu 0x18(%r9,%rax,2),%xmm1
@@ -30419,7 +30438,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,29,9,81,0,0 // vbroadcastss 0x5109(%rip),%ymm11 # b578 <_sk_clut_4D_avx+0x2515>
+ .byte 196,98,125,24,29,9,81,0,0 // vbroadcastss 0x5109(%rip),%ymm11 # b570 <_sk_clut_4D_avx+0x2515>
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -30440,41 +30459,41 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,166,80,0,0 // vbroadcastss 0x50a6(%rip),%ymm3 # b57c <_sk_clut_4D_avx+0x2519>
+ .byte 196,226,125,24,29,166,80,0,0 // vbroadcastss 0x50a6(%rip),%ymm3 # b574 <_sk_clut_4D_avx+0x2519>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,65 // vmovd (%r9,%rax,2),%xmm0
.byte 196,193,121,196,68,65,4,2 // vpinsrw $0x2,0x4(%r9,%rax,2),%xmm0,%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,5 // jne 64f1 <_sk_load_rgb_u16_be_avx+0x137>
- .byte 233,40,255,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 117,5 // jne 64e9 <_sk_load_rgb_u16_be_avx+0x137>
+ .byte 233,40,255,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
.byte 196,193,121,110,76,65,6 // vmovd 0x6(%r9,%rax,2),%xmm1
.byte 196,65,113,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%rax,2),%xmm1,%xmm8
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,26 // jb 6520 <_sk_load_rgb_u16_be_avx+0x166>
+ .byte 114,26 // jb 6518 <_sk_load_rgb_u16_be_avx+0x166>
.byte 196,193,121,110,76,65,12 // vmovd 0xc(%r9,%rax,2),%xmm1
.byte 196,193,113,196,84,65,16,2 // vpinsrw $0x2,0x10(%r9,%rax,2),%xmm1,%xmm2
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 117,10 // jne 6525 <_sk_load_rgb_u16_be_avx+0x16b>
- .byte 233,249,254,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
- .byte 233,244,254,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 117,10 // jne 651d <_sk_load_rgb_u16_be_avx+0x16b>
+ .byte 233,249,254,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 233,244,254,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
.byte 196,193,121,110,76,65,18 // vmovd 0x12(%r9,%rax,2),%xmm1
.byte 196,65,113,196,76,65,22,2 // vpinsrw $0x2,0x16(%r9,%rax,2),%xmm1,%xmm9
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,26 // jb 6554 <_sk_load_rgb_u16_be_avx+0x19a>
+ .byte 114,26 // jb 654c <_sk_load_rgb_u16_be_avx+0x19a>
.byte 196,193,121,110,76,65,24 // vmovd 0x18(%r9,%rax,2),%xmm1
.byte 196,193,113,196,76,65,28,2 // vpinsrw $0x2,0x1c(%r9,%rax,2),%xmm1,%xmm1
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 117,10 // jne 6559 <_sk_load_rgb_u16_be_avx+0x19f>
- .byte 233,197,254,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
- .byte 233,192,254,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 117,10 // jne 6551 <_sk_load_rgb_u16_be_avx+0x19f>
+ .byte 233,197,254,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 233,192,254,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
.byte 196,193,121,110,92,65,30 // vmovd 0x1e(%r9,%rax,2),%xmm3
.byte 196,65,97,196,92,65,34,2 // vpinsrw $0x2,0x22(%r9,%rax,2),%xmm3,%xmm11
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,20 // jb 6582 <_sk_load_rgb_u16_be_avx+0x1c8>
+ .byte 114,20 // jb 657a <_sk_load_rgb_u16_be_avx+0x1c8>
.byte 196,193,121,110,92,65,36 // vmovd 0x24(%r9,%rax,2),%xmm3
.byte 196,193,97,196,92,65,40,2 // vpinsrw $0x2,0x28(%r9,%rax,2),%xmm3,%xmm3
- .byte 233,151,254,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
- .byte 233,146,254,255,255 // jmpq 6419 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 233,151,254,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
+ .byte 233,146,254,255,255 // jmpq 6411 <_sk_load_rgb_u16_be_avx+0x5f>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -30488,7 +30507,7 @@ _sk_store_u16_be_avx:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
- .byte 196,98,125,24,5,210,79,0,0 // vbroadcastss 0x4fd2(%rip),%ymm8 # b580 <_sk_clut_4D_avx+0x251d>
+ .byte 196,98,125,24,5,210,79,0,0 // vbroadcastss 0x4fd2(%rip),%ymm8 # b578 <_sk_clut_4D_avx+0x251d>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -30526,7 +30545,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,31 // jne 6692 <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 668a <_sk_store_u16_be_avx+0x10b>
.byte 196,65,120,17,28,65 // vmovups %xmm11,(%r9,%rax,2)
.byte 196,65,120,17,84,65,16 // vmovups %xmm10,0x10(%r9,%rax,2)
.byte 196,65,120,17,76,65,32 // vmovups %xmm9,0x20(%r9,%rax,2)
@@ -30535,22 +30554,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,65 // vmovq %xmm11,(%r9,%rax,2)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 668e <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 6686 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%rax,2)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 668e <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 6686 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%rax,2)
- .byte 116,218 // je 668e <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 6686 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%rax,2)
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,205 // jb 668e <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 6686 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%rax,2)
- .byte 116,196 // je 668e <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 6686 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%rax,2)
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,183 // jb 668e <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 6686 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%rax,2)
- .byte 235,174 // jmp 668e <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 6686 <_sk_store_u16_be_avx+0x107>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -30558,7 +30577,7 @@ FUNCTION(_sk_load_f32_avx)
_sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,135,128,0,0,0 // ja 676c <_sk_load_f32_avx+0x8c>
+ .byte 15,135,128,0,0,0 // ja 6764 <_sk_load_f32_avx+0x8c>
.byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d
.byte 76,99,88,8 // movslq 0x8(%rax),%r11
.byte 76,99,201 // movslq %ecx,%r9
@@ -30566,7 +30585,7 @@ _sk_load_f32_avx:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,99,210 // movslq %r10d,%r10
- .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 6794 <_sk_load_f32_avx+0xb4>
+ .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 678c <_sk_load_f32_avx+0xb4>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
@@ -30615,7 +30634,7 @@ FUNCTION(_sk_load_f32_dst_avx)
_sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 15,135,128,0,0,0 // ja 6840 <_sk_load_f32_dst_avx+0x8c>
+ .byte 15,135,128,0,0,0 // ja 6838 <_sk_load_f32_dst_avx+0x8c>
.byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d
.byte 76,99,88,8 // movslq 0x8(%rax),%r11
.byte 76,99,201 // movslq %ecx,%r9
@@ -30623,7 +30642,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,99,210 // movslq %r10d,%r10
- .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 6868 <_sk_load_f32_dst_avx+0xb4>
+ .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 6860 <_sk_load_f32_dst_avx+0xb4>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 255,224 // jmpq *%rax
@@ -30687,7 +30706,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 77,133,192 // test %r8,%r8
- .byte 117,55 // jne 6907 <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 68ff <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -30700,22 +30719,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,129 // vmovupd %xmm10,(%r9,%rax,4)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 6903 <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 68fb <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%rax,4)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 6903 <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 68fb <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%rax,4)
- .byte 116,218 // je 6903 <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 68fb <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%rax,4)
.byte 73,131,248,5 // cmp $0x5,%r8
- .byte 114,205 // jb 6903 <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 68fb <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%rax,4)
- .byte 116,195 // je 6903 <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 68fb <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%rax,4)
.byte 73,131,248,7 // cmp $0x7,%r8
- .byte 114,181 // jb 6903 <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 68fb <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%rax,4)
- .byte 235,171 // jmp 6903 <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 68fb <_sk_store_f32_avx+0x7b>
HIDDEN _sk_clamp_x_avx
.globl _sk_clamp_x_avx
@@ -30808,7 +30827,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,247,74,0,0 // vmulss 0x4af7(%rip),%xmm9,%xmm0 # b584 <_sk_clut_4D_avx+0x2521>
+ .byte 197,178,89,5,247,74,0,0 // vmulss 0x4af7(%rip),%xmm9,%xmm0 # b57c <_sk_clut_4D_avx+0x2521>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -30842,7 +30861,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,110,74,0,0 // vmulss 0x4a6e(%rip),%xmm9,%xmm1 # b588 <_sk_clut_4D_avx+0x2525>
+ .byte 197,178,89,13,110,74,0,0 // vmulss 0x4a6e(%rip),%xmm9,%xmm1 # b580 <_sk_clut_4D_avx+0x2525>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -30869,7 +30888,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,8,74,0,0 // vbroadcastss 0x4a08(%rip),%ymm8 # b58c <_sk_clut_4D_avx+0x2529>
+ .byte 196,98,125,24,5,8,74,0,0 // vbroadcastss 0x4a08(%rip),%ymm8 # b584 <_sk_clut_4D_avx+0x2529>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30887,9 +30906,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,235,73,0,0 // vbroadcastss 0x49eb(%rip),%ymm8 # b590 <_sk_clut_4D_avx+0x252d>
+ .byte 196,98,125,24,5,235,73,0,0 // vbroadcastss 0x49eb(%rip),%ymm8 # b588 <_sk_clut_4D_avx+0x252d>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,225,73,0,0 // vbroadcastss 0x49e1(%rip),%ymm9 # b594 <_sk_clut_4D_avx+0x2531>
+ .byte 196,98,125,24,13,225,73,0,0 // vbroadcastss 0x49e1(%rip),%ymm9 # b58c <_sk_clut_4D_avx+0x2531>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -30905,12 +30924,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,177,73,0,0 // vbroadcastss 0x49b1(%rip),%ymm3 # b598 <_sk_clut_4D_avx+0x2535>
+ .byte 196,226,125,24,29,177,73,0,0 // vbroadcastss 0x49b1(%rip),%ymm3 # b590 <_sk_clut_4D_avx+0x2535>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,168,73,0,0 // vbroadcastss 0x49a8(%rip),%ymm3 # b59c <_sk_clut_4D_avx+0x2539>
+ .byte 196,226,125,24,29,168,73,0,0 // vbroadcastss 0x49a8(%rip),%ymm3 # b594 <_sk_clut_4D_avx+0x2539>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,155,73,0,0 // vbroadcastss 0x499b(%rip),%ymm1 # b5a0 <_sk_clut_4D_avx+0x253d>
+ .byte 196,226,125,24,13,155,73,0,0 // vbroadcastss 0x499b(%rip),%ymm1 # b598 <_sk_clut_4D_avx+0x253d>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31158,9 +31177,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 6fa9 <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 6fa1 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 6fbe <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 6fb6 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,217 // mov %rbx,%r9
.byte 73,209,233 // shr %r9
.byte 131,227,1 // and $0x1,%ebx
@@ -31318,18 +31337,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,130,66,0,0 // vbroadcastss 0x4282(%rip),%ymm0 # b5a4 <_sk_clut_4D_avx+0x2541>
+ .byte 196,226,125,24,5,130,66,0,0 // vbroadcastss 0x4282(%rip),%ymm0 # b59c <_sk_clut_4D_avx+0x2541>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,121,66,0,0 // vbroadcastss 0x4279(%rip),%ymm1 # b5a8 <_sk_clut_4D_avx+0x2545>
+ .byte 196,226,125,24,13,121,66,0,0 // vbroadcastss 0x4279(%rip),%ymm1 # b5a0 <_sk_clut_4D_avx+0x2545>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,108,66,0,0 // vbroadcastss 0x426c(%rip),%ymm1 # b5ac <_sk_clut_4D_avx+0x2549>
+ .byte 196,226,125,24,13,108,66,0,0 // vbroadcastss 0x426c(%rip),%ymm1 # b5a4 <_sk_clut_4D_avx+0x2549>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,95,66,0,0 // vbroadcastss 0x425f(%rip),%ymm1 # b5b0 <_sk_clut_4D_avx+0x254d>
+ .byte 196,226,125,24,13,95,66,0,0 // vbroadcastss 0x425f(%rip),%ymm1 # b5a8 <_sk_clut_4D_avx+0x254d>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,82,66,0,0 // vbroadcastss 0x4252(%rip),%ymm1 # b5b4 <_sk_clut_4D_avx+0x2551>
+ .byte 196,226,125,24,13,82,66,0,0 // vbroadcastss 0x4252(%rip),%ymm1 # b5ac <_sk_clut_4D_avx+0x2551>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -31352,12 +31371,12 @@ _sk_gradient_avx:
.byte 76,139,8 // mov (%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,249,2 // cmp $0x2,%r9
- .byte 114,80 // jb 73e5 <_sk_gradient_avx+0x6f>
+ .byte 114,80 // jb 73dd <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,201 // dec %r9
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,10,66,0,0 // vbroadcastss 0x420a(%rip),%ymm10 # b5b8 <_sk_clut_4D_avx+0x2555>
+ .byte 196,98,125,24,21,10,66,0,0 // vbroadcastss 0x420a(%rip),%ymm10 # b5b0 <_sk_clut_4D_avx+0x2555>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -31369,7 +31388,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,201 // dec %r9
- .byte 117,205 // jne 73b2 <_sk_gradient_avx+0x3c>
+ .byte 117,205 // jne 73aa <_sk_gradient_avx+0x3c>
.byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 73,193,233,32 // shr $0x20,%r9
@@ -31552,27 +31571,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,0,62,0,0 // vbroadcastss 0x3e00(%rip),%ymm13 # b5bc <_sk_clut_4D_avx+0x2559>
+ .byte 196,98,125,24,45,0,62,0,0 // vbroadcastss 0x3e00(%rip),%ymm13 # b5b4 <_sk_clut_4D_avx+0x2559>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,246,61,0,0 // vbroadcastss 0x3df6(%rip),%ymm14 # b5c0 <_sk_clut_4D_avx+0x255d>
+ .byte 196,98,125,24,53,246,61,0,0 // vbroadcastss 0x3df6(%rip),%ymm14 # b5b8 <_sk_clut_4D_avx+0x255d>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,231,61,0,0 // vbroadcastss 0x3de7(%rip),%ymm14 # b5c4 <_sk_clut_4D_avx+0x2561>
+ .byte 196,98,125,24,53,231,61,0,0 // vbroadcastss 0x3de7(%rip),%ymm14 # b5bc <_sk_clut_4D_avx+0x2561>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,216,61,0,0 // vbroadcastss 0x3dd8(%rip),%ymm13 # b5c8 <_sk_clut_4D_avx+0x2565>
+ .byte 196,98,125,24,45,216,61,0,0 // vbroadcastss 0x3dd8(%rip),%ymm13 # b5c0 <_sk_clut_4D_avx+0x2565>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,195,61,0,0 // vbroadcastss 0x3dc3(%rip),%ymm10 # b5cc <_sk_clut_4D_avx+0x2569>
+ .byte 196,98,125,24,21,195,61,0,0 // vbroadcastss 0x3dc3(%rip),%ymm10 # b5c4 <_sk_clut_4D_avx+0x2569>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,173,61,0,0 // vbroadcastss 0x3dad(%rip),%ymm10 # b5d0 <_sk_clut_4D_avx+0x256d>
+ .byte 196,98,125,24,21,173,61,0,0 // vbroadcastss 0x3dad(%rip),%ymm10 # b5c8 <_sk_clut_4D_avx+0x256d>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,151,61,0,0 // vbroadcastss 0x3d97(%rip),%ymm10 # b5d4 <_sk_clut_4D_avx+0x2571>
+ .byte 196,98,125,24,21,151,61,0,0 // vbroadcastss 0x3d97(%rip),%ymm10 # b5cc <_sk_clut_4D_avx+0x2571>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -31602,7 +31621,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,65,61,0,0 // vbroadcastss 0x3d41(%rip),%ymm11 # b5d8 <_sk_clut_4D_avx+0x2575>
+ .byte 196,98,125,24,29,65,61,0,0 // vbroadcastss 0x3d41(%rip),%ymm11 # b5d0 <_sk_clut_4D_avx+0x2575>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31611,17 +31630,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,21,61,0,0 // vbroadcastss 0x3d15(%rip),%ymm9 # b5dc <_sk_clut_4D_avx+0x2579>
+ .byte 196,98,125,24,13,21,61,0,0 // vbroadcastss 0x3d15(%rip),%ymm9 # b5d4 <_sk_clut_4D_avx+0x2579>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,243,60,0,0 // vbroadcastss 0x3cf3(%rip),%ymm9 # b5e0 <_sk_clut_4D_avx+0x257d>
+ .byte 196,98,125,24,13,243,60,0,0 // vbroadcastss 0x3cf3(%rip),%ymm9 # b5d8 <_sk_clut_4D_avx+0x257d>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,228,60,0,0 // vbroadcastss 0x3ce4(%rip),%ymm11 # b5e4 <_sk_clut_4D_avx+0x2581>
+ .byte 196,98,125,24,29,228,60,0,0 // vbroadcastss 0x3ce4(%rip),%ymm11 # b5dc <_sk_clut_4D_avx+0x2581>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31641,7 +31660,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,163,60,0,0 // vbroadcastss 0x3ca3(%rip),%ymm11 # b5e8 <_sk_clut_4D_avx+0x2585>
+ .byte 196,98,125,24,29,163,60,0,0 // vbroadcastss 0x3ca3(%rip),%ymm11 # b5e0 <_sk_clut_4D_avx+0x2585>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31650,17 +31669,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,119,60,0,0 // vbroadcastss 0x3c77(%rip),%ymm9 # b5ec <_sk_clut_4D_avx+0x2589>
+ .byte 196,98,125,24,13,119,60,0,0 // vbroadcastss 0x3c77(%rip),%ymm9 # b5e4 <_sk_clut_4D_avx+0x2589>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,85,60,0,0 // vbroadcastss 0x3c55(%rip),%ymm9 # b5f0 <_sk_clut_4D_avx+0x258d>
+ .byte 196,98,125,24,13,85,60,0,0 // vbroadcastss 0x3c55(%rip),%ymm9 # b5e8 <_sk_clut_4D_avx+0x258d>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,70,60,0,0 // vbroadcastss 0x3c46(%rip),%ymm11 # b5f4 <_sk_clut_4D_avx+0x2591>
+ .byte 196,98,125,24,29,70,60,0,0 // vbroadcastss 0x3c46(%rip),%ymm11 # b5ec <_sk_clut_4D_avx+0x2591>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31679,7 +31698,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,11,60,0,0 // vbroadcastss 0x3c0b(%rip),%ymm10 # b5f8 <_sk_clut_4D_avx+0x2595>
+ .byte 196,98,125,24,21,11,60,0,0 // vbroadcastss 0x3c0b(%rip),%ymm10 # b5f0 <_sk_clut_4D_avx+0x2595>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -31688,7 +31707,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,223,59,0,0 // vbroadcastss 0x3bdf(%rip),%ymm8 # b5fc <_sk_clut_4D_avx+0x2599>
+ .byte 196,98,125,24,5,223,59,0,0 // vbroadcastss 0x3bdf(%rip),%ymm8 # b5f4 <_sk_clut_4D_avx+0x2599>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31729,7 +31748,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,123,59,0,0 // vbroadcastss 0x3b7b(%rip),%ymm8 # b600 <_sk_clut_4D_avx+0x259d>
+ .byte 196,98,125,24,5,123,59,0,0 // vbroadcastss 0x3b7b(%rip),%ymm8 # b5f8 <_sk_clut_4D_avx+0x259d>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -31766,9 +31785,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,7,59,0,0 // vbroadcastss 0x3b07(%rip),%ymm0 # b604 <_sk_clut_4D_avx+0x25a1>
+ .byte 196,226,125,24,5,7,59,0,0 // vbroadcastss 0x3b07(%rip),%ymm0 # b5fc <_sk_clut_4D_avx+0x25a1>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,254,58,0,0 // vbroadcastss 0x3afe(%rip),%ymm8 # b608 <_sk_clut_4D_avx+0x25a5>
+ .byte 196,98,125,24,5,254,58,0,0 // vbroadcastss 0x3afe(%rip),%ymm8 # b600 <_sk_clut_4D_avx+0x25a5>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31779,7 +31798,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,230,58,0,0 // vbroadcastss 0x3ae6(%rip),%ymm0 # b60c <_sk_clut_4D_avx+0x25a9>
+ .byte 196,226,125,24,5,230,58,0,0 // vbroadcastss 0x3ae6(%rip),%ymm0 # b604 <_sk_clut_4D_avx+0x25a9>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31791,9 +31810,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,202,58,0,0 // vbroadcastss 0x3aca(%rip),%ymm1 # b610 <_sk_clut_4D_avx+0x25ad>
+ .byte 196,226,125,24,13,202,58,0,0 // vbroadcastss 0x3aca(%rip),%ymm1 # b608 <_sk_clut_4D_avx+0x25ad>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,192,58,0,0 // vbroadcastss 0x3ac0(%rip),%ymm8 # b614 <_sk_clut_4D_avx+0x25b1>
+ .byte 196,98,125,24,5,192,58,0,0 // vbroadcastss 0x3ac0(%rip),%ymm8 # b60c <_sk_clut_4D_avx+0x25b1>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31804,7 +31823,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,168,58,0,0 // vbroadcastss 0x3aa8(%rip),%ymm1 # b618 <_sk_clut_4D_avx+0x25b5>
+ .byte 196,226,125,24,13,168,58,0,0 // vbroadcastss 0x3aa8(%rip),%ymm1 # b610 <_sk_clut_4D_avx+0x25b5>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31816,14 +31835,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,139,58,0,0 // vbroadcastss 0x3a8b(%rip),%ymm0 # b61c <_sk_clut_4D_avx+0x25b9>
+ .byte 196,226,125,24,5,139,58,0,0 // vbroadcastss 0x3a8b(%rip),%ymm0 # b614 <_sk_clut_4D_avx+0x25b9>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,130,58,0,0 // vbroadcastss 0x3a82(%rip),%ymm8 # b620 <_sk_clut_4D_avx+0x25bd>
+ .byte 196,98,125,24,5,130,58,0,0 // vbroadcastss 0x3a82(%rip),%ymm8 # b618 <_sk_clut_4D_avx+0x25bd>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,115,58,0,0 // vbroadcastss 0x3a73(%rip),%ymm10 # b624 <_sk_clut_4D_avx+0x25c1>
+ .byte 196,98,125,24,21,115,58,0,0 // vbroadcastss 0x3a73(%rip),%ymm10 # b61c <_sk_clut_4D_avx+0x25c1>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,105,58,0,0 // vbroadcastss 0x3a69(%rip),%ymm10 # b628 <_sk_clut_4D_avx+0x25c5>
+ .byte 196,98,125,24,21,105,58,0,0 // vbroadcastss 0x3a69(%rip),%ymm10 # b620 <_sk_clut_4D_avx+0x25c5>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31835,19 +31854,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,76,58,0,0 // vbroadcastss 0x3a4c(%rip),%ymm0 # b62c <_sk_clut_4D_avx+0x25c9>
+ .byte 196,226,125,24,5,76,58,0,0 // vbroadcastss 0x3a4c(%rip),%ymm0 # b624 <_sk_clut_4D_avx+0x25c9>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,67,58,0,0 // vbroadcastss 0x3a43(%rip),%ymm8 # b630 <_sk_clut_4D_avx+0x25cd>
+ .byte 196,98,125,24,5,67,58,0,0 // vbroadcastss 0x3a43(%rip),%ymm8 # b628 <_sk_clut_4D_avx+0x25cd>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,57,58,0,0 // vbroadcastss 0x3a39(%rip),%ymm9 # b634 <_sk_clut_4D_avx+0x25d1>
+ .byte 196,98,125,24,13,57,58,0,0 // vbroadcastss 0x3a39(%rip),%ymm9 # b62c <_sk_clut_4D_avx+0x25d1>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,47,58,0,0 // vbroadcastss 0x3a2f(%rip),%ymm10 # b638 <_sk_clut_4D_avx+0x25d5>
+ .byte 196,98,125,24,21,47,58,0,0 // vbroadcastss 0x3a2f(%rip),%ymm10 # b630 <_sk_clut_4D_avx+0x25d5>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,32,58,0,0 // vbroadcastss 0x3a20(%rip),%ymm10 # b63c <_sk_clut_4D_avx+0x25d9>
+ .byte 196,98,125,24,21,32,58,0,0 // vbroadcastss 0x3a20(%rip),%ymm10 # b634 <_sk_clut_4D_avx+0x25d9>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,17,58,0,0 // vbroadcastss 0x3a11(%rip),%ymm9 # b640 <_sk_clut_4D_avx+0x25dd>
+ .byte 196,98,125,24,13,17,58,0,0 // vbroadcastss 0x3a11(%rip),%ymm9 # b638 <_sk_clut_4D_avx+0x25dd>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31858,17 +31877,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,249,57,0,0 // vbroadcastss 0x39f9(%rip),%ymm8 # b644 <_sk_clut_4D_avx+0x25e1>
+ .byte 196,98,125,24,5,249,57,0,0 // vbroadcastss 0x39f9(%rip),%ymm8 # b63c <_sk_clut_4D_avx+0x25e1>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,235,57,0,0 // vbroadcastss 0x39eb(%rip),%ymm10 # b648 <_sk_clut_4D_avx+0x25e5>
+ .byte 196,98,125,24,21,235,57,0,0 // vbroadcastss 0x39eb(%rip),%ymm10 # b640 <_sk_clut_4D_avx+0x25e5>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,225,57,0,0 // vbroadcastss 0x39e1(%rip),%ymm11 # b64c <_sk_clut_4D_avx+0x25e9>
+ .byte 196,98,125,24,29,225,57,0,0 // vbroadcastss 0x39e1(%rip),%ymm11 # b644 <_sk_clut_4D_avx+0x25e9>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,200,57,0,0 // vbroadcastss 0x39c8(%rip),%ymm9 # b650 <_sk_clut_4D_avx+0x25ed>
+ .byte 196,98,125,24,13,200,57,0,0 // vbroadcastss 0x39c8(%rip),%ymm9 # b648 <_sk_clut_4D_avx+0x25ed>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31879,13 +31898,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,176,57,0,0 // vbroadcastss 0x39b0(%rip),%ymm0 # b654 <_sk_clut_4D_avx+0x25f1>
+ .byte 196,226,125,24,5,176,57,0,0 // vbroadcastss 0x39b0(%rip),%ymm0 # b64c <_sk_clut_4D_avx+0x25f1>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,157,57,0,0 // vbroadcastss 0x399d(%rip),%ymm10 # b658 <_sk_clut_4D_avx+0x25f5>
+ .byte 196,98,125,24,21,157,57,0,0 // vbroadcastss 0x399d(%rip),%ymm10 # b650 <_sk_clut_4D_avx+0x25f5>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,147,57,0,0 // vbroadcastss 0x3993(%rip),%ymm10 # b65c <_sk_clut_4D_avx+0x25f9>
+ .byte 196,98,125,24,21,147,57,0,0 // vbroadcastss 0x3993(%rip),%ymm10 # b654 <_sk_clut_4D_avx+0x25f9>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31897,14 +31916,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,118,57,0,0 // vbroadcastss 0x3976(%rip),%ymm1 # b660 <_sk_clut_4D_avx+0x25fd>
+ .byte 196,226,125,24,13,118,57,0,0 // vbroadcastss 0x3976(%rip),%ymm1 # b658 <_sk_clut_4D_avx+0x25fd>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,108,57,0,0 // vbroadcastss 0x396c(%rip),%ymm8 # b664 <_sk_clut_4D_avx+0x2601>
+ .byte 196,98,125,24,5,108,57,0,0 // vbroadcastss 0x396c(%rip),%ymm8 # b65c <_sk_clut_4D_avx+0x2601>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,93,57,0,0 // vbroadcastss 0x395d(%rip),%ymm10 # b668 <_sk_clut_4D_avx+0x2605>
+ .byte 196,98,125,24,21,93,57,0,0 // vbroadcastss 0x395d(%rip),%ymm10 # b660 <_sk_clut_4D_avx+0x2605>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,83,57,0,0 // vbroadcastss 0x3953(%rip),%ymm10 # b66c <_sk_clut_4D_avx+0x2609>
+ .byte 196,98,125,24,21,83,57,0,0 // vbroadcastss 0x3953(%rip),%ymm10 # b664 <_sk_clut_4D_avx+0x2609>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31916,19 +31935,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,54,57,0,0 // vbroadcastss 0x3936(%rip),%ymm1 # b670 <_sk_clut_4D_avx+0x260d>
+ .byte 196,226,125,24,13,54,57,0,0 // vbroadcastss 0x3936(%rip),%ymm1 # b668 <_sk_clut_4D_avx+0x260d>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,44,57,0,0 // vbroadcastss 0x392c(%rip),%ymm8 # b674 <_sk_clut_4D_avx+0x2611>
+ .byte 196,98,125,24,5,44,57,0,0 // vbroadcastss 0x392c(%rip),%ymm8 # b66c <_sk_clut_4D_avx+0x2611>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,34,57,0,0 // vbroadcastss 0x3922(%rip),%ymm9 # b678 <_sk_clut_4D_avx+0x2615>
+ .byte 196,98,125,24,13,34,57,0,0 // vbroadcastss 0x3922(%rip),%ymm9 # b670 <_sk_clut_4D_avx+0x2615>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,24,57,0,0 // vbroadcastss 0x3918(%rip),%ymm10 # b67c <_sk_clut_4D_avx+0x2619>
+ .byte 196,98,125,24,21,24,57,0,0 // vbroadcastss 0x3918(%rip),%ymm10 # b674 <_sk_clut_4D_avx+0x2619>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,9,57,0,0 // vbroadcastss 0x3909(%rip),%ymm10 # b680 <_sk_clut_4D_avx+0x261d>
+ .byte 196,98,125,24,21,9,57,0,0 // vbroadcastss 0x3909(%rip),%ymm10 # b678 <_sk_clut_4D_avx+0x261d>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,250,56,0,0 // vbroadcastss 0x38fa(%rip),%ymm9 # b684 <_sk_clut_4D_avx+0x2621>
+ .byte 196,98,125,24,13,250,56,0,0 // vbroadcastss 0x38fa(%rip),%ymm9 # b67c <_sk_clut_4D_avx+0x2621>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31939,17 +31958,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,226,56,0,0 // vbroadcastss 0x38e2(%rip),%ymm8 # b688 <_sk_clut_4D_avx+0x2625>
+ .byte 196,98,125,24,5,226,56,0,0 // vbroadcastss 0x38e2(%rip),%ymm8 # b680 <_sk_clut_4D_avx+0x2625>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,211,56,0,0 // vbroadcastss 0x38d3(%rip),%ymm10 # b68c <_sk_clut_4D_avx+0x2629>
+ .byte 196,98,125,24,21,211,56,0,0 // vbroadcastss 0x38d3(%rip),%ymm10 # b684 <_sk_clut_4D_avx+0x2629>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,201,56,0,0 // vbroadcastss 0x38c9(%rip),%ymm11 # b690 <_sk_clut_4D_avx+0x262d>
+ .byte 196,98,125,24,29,201,56,0,0 // vbroadcastss 0x38c9(%rip),%ymm11 # b688 <_sk_clut_4D_avx+0x262d>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,176,56,0,0 // vbroadcastss 0x38b0(%rip),%ymm9 # b694 <_sk_clut_4D_avx+0x2631>
+ .byte 196,98,125,24,13,176,56,0,0 // vbroadcastss 0x38b0(%rip),%ymm9 # b68c <_sk_clut_4D_avx+0x2631>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31960,13 +31979,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,152,56,0,0 // vbroadcastss 0x3898(%rip),%ymm1 # b698 <_sk_clut_4D_avx+0x2635>
+ .byte 196,226,125,24,13,152,56,0,0 // vbroadcastss 0x3898(%rip),%ymm1 # b690 <_sk_clut_4D_avx+0x2635>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,132,56,0,0 // vbroadcastss 0x3884(%rip),%ymm10 # b69c <_sk_clut_4D_avx+0x2639>
+ .byte 196,98,125,24,21,132,56,0,0 // vbroadcastss 0x3884(%rip),%ymm10 # b694 <_sk_clut_4D_avx+0x2639>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,122,56,0,0 // vbroadcastss 0x387a(%rip),%ymm10 # b6a0 <_sk_clut_4D_avx+0x263d>
+ .byte 196,98,125,24,21,122,56,0,0 // vbroadcastss 0x387a(%rip),%ymm10 # b698 <_sk_clut_4D_avx+0x263d>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -32112,7 +32131,7 @@ _sk_clut_3D_avx:
.byte 197,249,127,68,36,224 // vmovdqa %xmm0,-0x20(%rsp)
.byte 72,139,0 // mov (%rax),%rax
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
- .byte 196,98,121,24,29,18,54,0,0 // vbroadcastss 0x3612(%rip),%xmm11 # b6a8 <_sk_clut_4D_avx+0x2645>
+ .byte 196,98,121,24,29,18,54,0,0 // vbroadcastss 0x3612(%rip),%xmm11 # b6a0 <_sk_clut_4D_avx+0x2645>
.byte 196,194,121,64,203 // vpmulld %xmm11,%xmm0,%xmm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
@@ -32146,7 +32165,7 @@ _sk_clut_3D_avx:
.byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7
.byte 196,227,93,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm3
.byte 197,252,17,92,36,64 // vmovups %ymm3,0x40(%rsp)
- .byte 196,98,121,24,13,85,53,0,0 // vbroadcastss 0x3555(%rip),%xmm9 # b6ac <_sk_clut_4D_avx+0x2649>
+ .byte 196,98,121,24,13,85,53,0,0 // vbroadcastss 0x3555(%rip),%xmm9 # b6a4 <_sk_clut_4D_avx+0x2649>
.byte 196,193,105,254,249 // vpaddd %xmm9,%xmm2,%xmm7
.byte 196,195,249,22,249,1 // vpextrq $0x1,%xmm7,%r9
.byte 196,193,249,126,250 // vmovq %xmm7,%r10
@@ -32174,7 +32193,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,152 // vmovss (%rax,%r11,4),%xmm7
.byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5
.byte 196,99,85,24,254,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm15
- .byte 196,98,121,24,37,196,52,0,0 // vbroadcastss 0x34c4(%rip),%xmm12 # b6b0 <_sk_clut_4D_avx+0x264d>
+ .byte 196,98,121,24,37,196,52,0,0 // vbroadcastss 0x34c4(%rip),%xmm12 # b6a8 <_sk_clut_4D_avx+0x264d>
.byte 196,193,105,254,212 // vpaddd %xmm12,%xmm2,%xmm2
.byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9
.byte 196,193,249,126,210 // vmovq %xmm2,%r10
@@ -32202,7 +32221,7 @@ _sk_clut_3D_avx:
.byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
.byte 196,227,105,33,213,48 // vinsertps $0x30,%xmm5,%xmm2,%xmm2
.byte 196,227,109,24,225,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm4
- .byte 196,226,125,24,13,36,52,0,0 // vbroadcastss 0x3424(%rip),%ymm1 # b6a4 <_sk_clut_4D_avx+0x2641>
+ .byte 196,226,125,24,13,36,52,0,0 // vbroadcastss 0x3424(%rip),%ymm1 # b69c <_sk_clut_4D_avx+0x2641>
.byte 197,188,88,209 // vaddps %ymm1,%ymm8,%ymm2
.byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp)
.byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
@@ -32957,7 +32976,7 @@ _sk_clut_4D_avx:
.byte 196,226,25,64,200 // vpmulld %xmm0,%xmm12,%xmm1
.byte 197,249,127,76,36,128 // vmovdqa %xmm1,-0x80(%rsp)
.byte 197,241,254,202 // vpaddd %xmm2,%xmm1,%xmm1
- .byte 196,98,121,24,61,226,36,0,0 // vbroadcastss 0x24e2(%rip),%xmm15 # b6b8 <_sk_clut_4D_avx+0x2655>
+ .byte 196,98,121,24,61,226,36,0,0 // vbroadcastss 0x24e2(%rip),%xmm15 # b6b0 <_sk_clut_4D_avx+0x2655>
.byte 196,194,113,64,247 // vpmulld %xmm15,%xmm1,%xmm6
.byte 196,193,249,126,241 // vmovq %xmm6,%r9
.byte 69,137,202 // mov %r9d,%r10d
@@ -32995,7 +33014,7 @@ _sk_clut_4D_avx:
.byte 196,163,65,33,60,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7
.byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7
.byte 196,99,53,24,247,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm14
- .byte 196,98,121,24,21,13,36,0,0 // vbroadcastss 0x240d(%rip),%xmm10 # b6bc <_sk_clut_4D_avx+0x2659>
+ .byte 196,98,121,24,21,13,36,0,0 // vbroadcastss 0x240d(%rip),%xmm10 # b6b4 <_sk_clut_4D_avx+0x2659>
.byte 196,65,97,254,202 // vpaddd %xmm10,%xmm3,%xmm9
.byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
.byte 196,65,249,126,202 // vmovq %xmm9,%r10
@@ -33023,7 +33042,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,152 // vmovss (%rax,%r11,4),%xmm7
.byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5
.byte 196,99,85,24,220,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm11
- .byte 196,98,121,24,13,124,35,0,0 // vbroadcastss 0x237c(%rip),%xmm9 # b6c0 <_sk_clut_4D_avx+0x265d>
+ .byte 196,98,121,24,13,124,35,0,0 // vbroadcastss 0x237c(%rip),%xmm9 # b6b8 <_sk_clut_4D_avx+0x265d>
.byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3
.byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9
.byte 196,193,249,126,218 // vmovq %xmm3,%r10
@@ -33051,7 +33070,7 @@ _sk_clut_4D_avx:
.byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
.byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4
.byte 196,227,93,24,243,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm6
- .byte 196,226,125,24,37,220,34,0,0 // vbroadcastss 0x22dc(%rip),%ymm4 # b6b4 <_sk_clut_4D_avx+0x2651>
+ .byte 196,226,125,24,37,220,34,0,0 // vbroadcastss 0x22dc(%rip),%ymm4 # b6ac <_sk_clut_4D_avx+0x2651>
.byte 197,148,88,220 // vaddps %ymm4,%ymm13,%ymm3
.byte 197,252,40,252 // vmovaps %ymm4,%ymm7
.byte 197,252,17,124,36,32 // vmovups %ymm7,0x20(%rsp)
@@ -34481,7 +34500,7 @@ _sk_clut_4D_avx:
.byte 197,220,89,210 // vmulps %ymm2,%ymm4,%ymm2
.byte 197,212,88,210 // vaddps %ymm2,%ymm5,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,112,5,0,0 // vbroadcastss 0x570(%rip),%ymm3 # b6c4 <_sk_clut_4D_avx+0x2661>
+ .byte 196,226,125,24,29,112,5,0,0 // vbroadcastss 0x570(%rip),%ymm3 # b6bc <_sk_clut_4D_avx+0x2661>
.byte 197,252,16,164,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm4
.byte 197,252,16,172,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm5
.byte 197,252,16,180,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm6
@@ -34535,25 +34554,25 @@ BALIGN4
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope b241 <.literal4+0xb9>
+ .byte 71,225,61 // rex.RXB loope b239 <.literal4+0xb9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,154 // cmpb $0x9a,(%rdi)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope b251 <.literal4+0xc9>
+ .byte 71,225,61 // rex.RXB loope b249 <.literal4+0xc9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,154 // cmpb $0x9a,(%rdi)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope b261 <.literal4+0xd9>
+ .byte 71,225,61 // rex.RXB loope b259 <.literal4+0xd9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,154 // cmpb $0x9a,(%rdi)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope b271 <.literal4+0xe9>
+ .byte 71,225,61 // rex.RXB loope b269 <.literal4+0xe9>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax)
@@ -34618,7 +34637,7 @@ BALIGN4
.byte 190,129,128,128,59 // mov $0x3b808081,%esi
.byte 129,128,128,59,0,248,0,0,8,33 // addl $0x21080000,-0x7ffc480(%rax)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne b2e1 <.literal4+0x159>
+ .byte 224,7 // loopne b2d9 <.literal4+0x159>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -34634,10 +34653,10 @@ BALIGN4
.byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg b308 <.literal4+0x180>
+ .byte 127,0 // jg b300 <.literal4+0x180>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja b381 <.literal4+0x1f9>
+ .byte 119,115 // ja b379 <.literal4+0x1f9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -34651,10 +34670,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg b33c <.literal4+0x1b4>
+ .byte 127,0 // jg b334 <.literal4+0x1b4>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja b3b5 <.literal4+0x22d>
+ .byte 119,115 // ja b3ad <.literal4+0x22d>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -34668,10 +34687,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg b370 <.literal4+0x1e8>
+ .byte 127,0 // jg b368 <.literal4+0x1e8>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja b3e9 <.literal4+0x261>
+ .byte 119,115 // ja b3e1 <.literal4+0x261>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -34685,10 +34704,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg b3a4 <.literal4+0x21c>
+ .byte 127,0 // jg b39c <.literal4+0x21c>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja b41d <.literal4+0x295>
+ .byte 119,115 // ja b415 <.literal4+0x295>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -34702,10 +34721,10 @@ BALIGN4
.byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg b3d8 <.literal4+0x250>
+ .byte 127,0 // jg b3d0 <.literal4+0x250>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja b451 <.literal4+0x2c9>
+ .byte 119,115 // ja b449 <.literal4+0x2c9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -34718,7 +34737,7 @@ BALIGN4
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,200 // add %cl,%al
.byte 66,0,0 // rex.X add %al,(%rax)
- .byte 127,67 // jg b44b <.literal4+0x2c3>
+ .byte 127,67 // jg b443 <.literal4+0x2c3>
.byte 0,0 // add %al,(%rax)
.byte 0,195 // add %al,%bl
.byte 0,0 // add %al,(%rax)
@@ -34730,7 +34749,7 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe b46b <.literal4+0x2e3>
+ .byte 118,63 // jbe b463 <.literal4+0x2e3>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
.byte 128,59,0 // cmpb $0x0,(%rbx)
@@ -34752,7 +34771,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne b485 <.literal4+0x2fd>
+ .byte 224,7 // loopne b47d <.literal4+0x2fd>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -34764,7 +34783,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne b4a1 <.literal4+0x319>
+ .byte 224,7 // loopne b499 <.literal4+0x319>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -34775,7 +34794,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl b4f6 <.literal4+0x36e>
+ .byte 124,66 // jl b4ee <.literal4+0x36e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -34801,7 +34820,7 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo b559 <.literal4+0x3d1>
+ .byte 112,65 // jo b551 <.literal4+0x3d1>
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
.byte 128,59,0 // cmpb $0x0,(%rbx)
.byte 0,127,67 // add %bh,0x43(%rdi)
@@ -34827,7 +34846,7 @@ BALIGN4
.byte 0,128,55,0,0,128 // add %al,-0x7fffffc9(%rax)
.byte 63 // (bad)
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg b5cb <.literal4+0x443>
+ .byte 127,71 // jg b5c3 <.literal4+0x443>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -34947,8 +34966,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 2,0 // add (%rax),%al
.byte 0,0 // add %al,(%rax)
- .byte 114,249 // jb b6af <.literal4+0x527>
- .byte 127,63 // jg b6f7 <_sk_clut_4D_avx+0x2694>
+ .byte 114,249 // jb b6a7 <.literal4+0x527>
+ .byte 127,63 // jg b6ef <_sk_clut_4D_avx+0x2694>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 1,0 // add %eax,(%rax)
@@ -35251,7 +35270,7 @@ _sk_seed_shader_sse41:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,21,156,121,0,0 // movaps 0x799c(%rip),%xmm2 # 7a60 <_sk_clut_4D_sse41+0x11c2>
+ .byte 15,40,21,156,121,0,0 // movaps 0x799c(%rip),%xmm2 # 7a60 <_sk_clut_4D_sse41+0x11c4>
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,7 // movups (%rdi),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -35260,7 +35279,7 @@ _sk_seed_shader_sse41:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,139,121,0,0 // movaps 0x798b(%rip),%xmm2 # 7a70 <_sk_clut_4D_sse41+0x11d2>
+ .byte 15,40,21,139,121,0,0 // movaps 0x798b(%rip),%xmm2 # 7a70 <_sk_clut_4D_sse41+0x11d4>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -35280,14 +35299,14 @@ _sk_dither_sse41:
.byte 102,68,15,110,193 // movd %ecx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 102,69,15,239,193 // pxor %xmm9,%xmm8
- .byte 102,68,15,111,21,89,121,0,0 // movdqa 0x7959(%rip),%xmm10 # 7a80 <_sk_clut_4D_sse41+0x11e2>
+ .byte 102,68,15,111,21,89,121,0,0 // movdqa 0x7959(%rip),%xmm10 # 7a80 <_sk_clut_4D_sse41+0x11e4>
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,209 // pand %xmm9,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,69,121,0,0 // movdqa 0x7945(%rip),%xmm12 # 7a90 <_sk_clut_4D_sse41+0x11f2>
- .byte 102,68,15,111,45,76,121,0,0 // movdqa 0x794c(%rip),%xmm13 # 7aa0 <_sk_clut_4D_sse41+0x1202>
+ .byte 102,68,15,111,37,69,121,0,0 // movdqa 0x7945(%rip),%xmm12 # 7a90 <_sk_clut_4D_sse41+0x11f4>
+ .byte 102,68,15,111,45,76,121,0,0 // movdqa 0x794c(%rip),%xmm13 # 7aa0 <_sk_clut_4D_sse41+0x1204>
.byte 102,69,15,111,240 // movdqa %xmm8,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -35303,8 +35322,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,245 // por %xmm13,%xmm14
.byte 102,69,15,235,240 // por %xmm8,%xmm14
.byte 69,15,91,198 // cvtdq2ps %xmm14,%xmm8
- .byte 68,15,89,5,7,121,0,0 // mulps 0x7907(%rip),%xmm8 # 7ab0 <_sk_clut_4D_sse41+0x1212>
- .byte 68,15,88,5,15,121,0,0 // addps 0x790f(%rip),%xmm8 # 7ac0 <_sk_clut_4D_sse41+0x1222>
+ .byte 68,15,89,5,7,121,0,0 // mulps 0x7907(%rip),%xmm8 # 7ab0 <_sk_clut_4D_sse41+0x1214>
+ .byte 68,15,88,5,15,121,0,0 // addps 0x790f(%rip),%xmm8 # 7ac0 <_sk_clut_4D_sse41+0x1224>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -35346,7 +35365,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,165,120,0,0 // movaps 0x78a5(%rip),%xmm3 # 7ad0 <_sk_clut_4D_sse41+0x1232>
+ .byte 15,40,29,165,120,0,0 // movaps 0x78a5(%rip),%xmm3 # 7ad0 <_sk_clut_4D_sse41+0x1234>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -35357,7 +35376,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,161,120,0,0 // movaps 0x78a1(%rip),%xmm0 # 7ae0 <_sk_clut_4D_sse41+0x1242>
+ .byte 15,40,5,161,120,0,0 // movaps 0x78a1(%rip),%xmm0 # 7ae0 <_sk_clut_4D_sse41+0x1244>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -35403,7 +35422,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,97,120,0,0 // movaps 0x7861(%rip),%xmm8 # 7af0 <_sk_clut_4D_sse41+0x1252>
+ .byte 68,15,40,5,97,120,0,0 // movaps 0x7861(%rip),%xmm8 # 7af0 <_sk_clut_4D_sse41+0x1254>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35428,7 +35447,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,36,120,0,0 // movaps 0x7824(%rip),%xmm9 # 7b00 <_sk_clut_4D_sse41+0x1262>
+ .byte 68,15,40,13,36,120,0,0 // movaps 0x7824(%rip),%xmm9 # 7b00 <_sk_clut_4D_sse41+0x1264>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -35475,7 +35494,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,200,119,0,0 // movaps 0x77c8(%rip),%xmm8 # 7b10 <_sk_clut_4D_sse41+0x1272>
+ .byte 68,15,40,5,200,119,0,0 // movaps 0x77c8(%rip),%xmm8 # 7b10 <_sk_clut_4D_sse41+0x1274>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -35488,7 +35507,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,184,119,0,0 // movaps 0x77b8(%rip),%xmm8 # 7b20 <_sk_clut_4D_sse41+0x1282>
+ .byte 68,15,40,5,184,119,0,0 // movaps 0x77b8(%rip),%xmm8 # 7b20 <_sk_clut_4D_sse41+0x1284>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -35505,7 +35524,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,155,119,0,0 // movaps 0x779b(%rip),%xmm8 # 7b30 <_sk_clut_4D_sse41+0x1292>
+ .byte 68,15,40,5,155,119,0,0 // movaps 0x779b(%rip),%xmm8 # 7b30 <_sk_clut_4D_sse41+0x1294>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35525,7 +35544,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,111,119,0,0 // movaps 0x776f(%rip),%xmm8 # 7b40 <_sk_clut_4D_sse41+0x12a2>
+ .byte 68,15,40,5,111,119,0,0 // movaps 0x776f(%rip),%xmm8 # 7b40 <_sk_clut_4D_sse41+0x12a4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -35553,7 +35572,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,67,119,0,0 // movaps 0x7743(%rip),%xmm8 # 7b50 <_sk_clut_4D_sse41+0x12b2>
+ .byte 68,15,40,5,67,119,0,0 // movaps 0x7743(%rip),%xmm8 # 7b50 <_sk_clut_4D_sse41+0x12b4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -35628,7 +35647,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,120,118,0,0 // movaps 0x7678(%rip),%xmm3 # 7b60 <_sk_clut_4D_sse41+0x12c2>
+ .byte 15,40,29,120,118,0,0 // movaps 0x7678(%rip),%xmm3 # 7b60 <_sk_clut_4D_sse41+0x12c4>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -35676,7 +35695,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,227,117,0,0 // movaps 0x75e3(%rip),%xmm2 # 7b70 <_sk_clut_4D_sse41+0x12d2>
+ .byte 15,40,21,227,117,0,0 // movaps 0x75e3(%rip),%xmm2 # 7b70 <_sk_clut_4D_sse41+0x12d4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35710,7 +35729,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,136,117,0,0 // movaps 0x7588(%rip),%xmm2 # 7b80 <_sk_clut_4D_sse41+0x12e2>
+ .byte 15,40,21,136,117,0,0 // movaps 0x7588(%rip),%xmm2 # 7b80 <_sk_clut_4D_sse41+0x12e4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35747,7 +35766,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,34,117,0,0 // movaps 0x7522(%rip),%xmm2 # 7b90 <_sk_clut_4D_sse41+0x12f2>
+ .byte 15,40,21,34,117,0,0 // movaps 0x7522(%rip),%xmm2 # 7b90 <_sk_clut_4D_sse41+0x12f4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35775,7 +35794,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,226,116,0,0 // movaps 0x74e2(%rip),%xmm2 # 7ba0 <_sk_clut_4D_sse41+0x1302>
+ .byte 15,40,21,226,116,0,0 // movaps 0x74e2(%rip),%xmm2 # 7ba0 <_sk_clut_4D_sse41+0x1304>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35787,82 +35806,83 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,213,116,0,0 // movaps 0x74d5(%rip),%xmm10 # 7bb0 <_sk_clut_4D_sse41+0x1312>
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 69,15,40,203 // movaps %xmm11,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,94,192 // divps %xmm8,%xmm0
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,93,224 // minps %xmm0,%xmm12
+ .byte 68,15,40,29,217,116,0,0 // movaps 0x74d9(%rip),%xmm11 # 7bb0 <_sk_clut_4D_sse41+0x1314>
+ .byte 69,15,40,227 // movaps %xmm11,%xmm12
+ .byte 68,15,92,231 // subps %xmm7,%xmm12
+ .byte 69,15,40,204 // movaps %xmm12,%xmm9
+ .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,199 // movaps %xmm7,%xmm8
+ .byte 68,15,92,196 // subps %xmm4,%xmm8
+ .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,83,208 // rcpps %xmm0,%xmm10
+ .byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 68,15,88,228 // addps %xmm4,%xmm12
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 102,69,15,56,20,232 // blendvps %xmm0,%xmm8,%xmm13
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
+ .byte 69,15,93,234 // minps %xmm10,%xmm13
+ .byte 68,15,40,199 // movaps %xmm7,%xmm8
+ .byte 69,15,92,197 // subps %xmm13,%xmm8
+ .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 69,15,88,193 // addps %xmm9,%xmm8
+ .byte 68,15,88,204 // addps %xmm4,%xmm9
+ .byte 69,15,87,210 // xorps %xmm10,%xmm10
+ .byte 68,15,92,219 // subps %xmm3,%xmm11
+ .byte 69,15,40,235 // movaps %xmm11,%xmm13
+ .byte 68,15,89,236 // mulps %xmm4,%xmm13
+ .byte 65,15,194,194,0 // cmpeqps %xmm10,%xmm0
+ .byte 69,15,88,197 // addps %xmm13,%xmm8
+ .byte 102,69,15,56,20,197 // blendvps %xmm0,%xmm13,%xmm8
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 102,69,15,56,20,196 // blendvps %xmm0,%xmm12,%xmm8
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
+ .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
+ .byte 69,15,40,236 // movaps %xmm12,%xmm13
+ .byte 68,15,89,233 // mulps %xmm1,%xmm13
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,94,193 // divps %xmm1,%xmm0
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,93,232 // minps %xmm0,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
+ .byte 68,15,83,201 // rcpps %xmm1,%xmm9
+ .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 65,15,93,193 // minps %xmm9,%xmm0
+ .byte 68,15,40,207 // movaps %xmm7,%xmm9
+ .byte 68,15,92,200 // subps %xmm0,%xmm9
+ .byte 69,15,40,243 // movaps %xmm11,%xmm14
+ .byte 68,15,89,245 // mulps %xmm5,%xmm14
+ .byte 65,15,194,202,0 // cmpeqps %xmm10,%xmm1
+ .byte 68,15,89,203 // mulps %xmm3,%xmm9
+ .byte 69,15,88,205 // addps %xmm13,%xmm9
+ .byte 69,15,88,206 // addps %xmm14,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
- .byte 68,15,89,243 // mulps %xmm3,%xmm14
- .byte 69,15,88,244 // addps %xmm12,%xmm14
- .byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14
- .byte 68,15,88,229 // addps %xmm5,%xmm12
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
+ .byte 102,69,15,56,20,206 // blendvps %xmm0,%xmm14,%xmm9
+ .byte 68,15,88,237 // addps %xmm5,%xmm13
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 102,65,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm1
+ .byte 102,69,15,56,20,205 // blendvps %xmm0,%xmm13,%xmm9
+ .byte 68,15,89,226 // mulps %xmm2,%xmm12
+ .byte 68,15,194,210,0 // cmpeqps %xmm2,%xmm10
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,94,194 // divps %xmm2,%xmm0
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,93,224 // minps %xmm0,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,194,202,0 // cmpeqps %xmm2,%xmm9
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13
- .byte 68,15,88,222 // addps %xmm6,%xmm11
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 65,15,88,213 // addps %xmm13,%xmm2
+ .byte 15,83,202 // rcpps %xmm2,%xmm1
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 15,93,193 // minps %xmm1,%xmm0
+ .byte 15,40,215 // movaps %xmm7,%xmm2
+ .byte 15,92,208 // subps %xmm0,%xmm2
+ .byte 65,15,40,203 // movaps %xmm11,%xmm1
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 65,15,88,212 // addps %xmm12,%xmm2
+ .byte 15,88,209 // addps %xmm1,%xmm2
+ .byte 65,15,40,194 // movaps %xmm10,%xmm0
+ .byte 102,15,56,20,209 // blendvps %xmm0,%xmm1,%xmm2
+ .byte 68,15,88,230 // addps %xmm6,%xmm12
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 65,15,88,218 // addps %xmm10,%xmm3
+ .byte 102,65,15,56,20,212 // blendvps %xmm0,%xmm12,%xmm2
+ .byte 68,15,89,223 // mulps %xmm7,%xmm11
+ .byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
.byte 255,224 // jmpq *%rax
HIDDEN _sk_colordodge_sse41
@@ -35870,16 +35890,17 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,179,115,0,0 // movaps 0x73b3(%rip),%xmm10 # 7bc0 <_sk_clut_4D_sse41+0x1322>
+ .byte 68,15,40,21,179,115,0,0 // movaps 0x73b3(%rip),%xmm10 # 7bc0 <_sk_clut_4D_sse41+0x1324>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
+ .byte 68,15,40,235 // movaps %xmm3,%xmm13
+ .byte 68,15,89,236 // mulps %xmm4,%xmm13
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 68,15,94,200 // divps %xmm0,%xmm9
+ .byte 68,15,83,200 // rcpps %xmm0,%xmm9
+ .byte 69,15,89,205 // mulps %xmm13,%xmm9
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 68,15,40,247 // movaps %xmm7,%xmm14
.byte 69,15,93,241 // minps %xmm9,%xmm14
@@ -35889,7 +35910,6 @@ _sk_colordodge_sse41:
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 102,69,15,56,20,240 // blendvps %xmm0,%xmm8,%xmm14
.byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 68,15,92,211 // subps %xmm3,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
@@ -35901,40 +35921,40 @@ _sk_colordodge_sse41:
.byte 68,15,89,229 // mulps %xmm5,%xmm12
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,94,224 // divps %xmm0,%xmm12
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 68,15,89,241 // mulps %xmm1,%xmm14
- .byte 69,15,93,236 // minps %xmm12,%xmm13
+ .byte 15,83,192 // rcpps %xmm0,%xmm0
+ .byte 65,15,89,196 // mulps %xmm12,%xmm0
+ .byte 69,15,40,227 // movaps %xmm11,%xmm12
+ .byte 68,15,89,225 // mulps %xmm1,%xmm12
+ .byte 68,15,93,232 // minps %xmm0,%xmm13
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,194,195,0 // cmpeqps %xmm3,%xmm0
.byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
+ .byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 102,68,15,56,20,233 // blendvps %xmm0,%xmm1,%xmm13
- .byte 68,15,88,245 // addps %xmm5,%xmm14
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 65,15,88,205 // addps %xmm13,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
- .byte 102,65,15,56,20,206 // blendvps %xmm0,%xmm14,%xmm1
+ .byte 102,65,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm1
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,94,224 // divps %xmm0,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
+ .byte 15,83,192 // rcpps %xmm0,%xmm0
+ .byte 65,15,89,196 // mulps %xmm12,%xmm0
+ .byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,93,236 // minps %xmm12,%xmm13
+ .byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,195,0 // cmpeqps %xmm3,%xmm0
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13
+ .byte 68,15,89,227 // mulps %xmm3,%xmm12
+ .byte 69,15,88,227 // addps %xmm11,%xmm12
+ .byte 102,68,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm12
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 65,15,88,213 // addps %xmm13,%xmm2
+ .byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 68,15,194,206,0 // cmpeqps %xmm6,%xmm9
- .byte 68,15,88,222 // addps %xmm6,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
.byte 68,15,89,215 // mulps %xmm7,%xmm10
@@ -35952,7 +35972,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,140,114,0,0 // movaps 0x728c(%rip),%xmm10 # 7bd0 <_sk_clut_4D_sse41+0x1332>
+ .byte 68,15,40,21,142,114,0,0 // movaps 0x728e(%rip),%xmm10 # 7bd0 <_sk_clut_4D_sse41+0x1334>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -36035,7 +36055,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,113,113,0,0 // movaps 0x7171(%rip),%xmm10 # 7be0 <_sk_clut_4D_sse41+0x1342>
+ .byte 68,15,40,21,115,113,0,0 // movaps 0x7173(%rip),%xmm10 # 7be0 <_sk_clut_4D_sse41+0x1344>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -36120,7 +36140,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,72,112,0,0 // movaps 0x7048(%rip),%xmm1 # 7bf0 <_sk_clut_4D_sse41+0x1352>
+ .byte 15,40,13,74,112,0,0 // movaps 0x704a(%rip),%xmm1 # 7bf0 <_sk_clut_4D_sse41+0x1354>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -36133,10 +36153,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,38,112,0,0 // movaps 0x7026(%rip),%xmm13 # 7c00 <_sk_clut_4D_sse41+0x1362>
+ .byte 68,15,40,45,40,112,0,0 // movaps 0x7028(%rip),%xmm13 # 7c00 <_sk_clut_4D_sse41+0x1364>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,38,112,0,0 // movaps 0x7026(%rip),%xmm12 # 7c10 <_sk_clut_4D_sse41+0x1372>
+ .byte 68,15,40,37,40,112,0,0 // movaps 0x7028(%rip),%xmm12 # 7c10 <_sk_clut_4D_sse41+0x1374>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -36322,12 +36342,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,145,109,0,0 // movaps 0x6d91(%rip),%xmm0 # 7c20 <_sk_clut_4D_sse41+0x1382>
+ .byte 15,40,5,147,109,0,0 // movaps 0x6d93(%rip),%xmm0 # 7c20 <_sk_clut_4D_sse41+0x1384>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,150,109,0,0 // movaps 0x6d96(%rip),%xmm2 # 7c30 <_sk_clut_4D_sse41+0x1392>
+ .byte 15,40,21,152,109,0,0 // movaps 0x6d98(%rip),%xmm2 # 7c30 <_sk_clut_4D_sse41+0x1394>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,151,109,0,0 // movaps 0x6d97(%rip),%xmm14 # 7c40 <_sk_clut_4D_sse41+0x13a2>
+ .byte 68,15,40,53,153,109,0,0 // movaps 0x6d99(%rip),%xmm14 # 7c40 <_sk_clut_4D_sse41+0x13a4>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -36410,7 +36430,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,91,108,0,0 // movaps 0x6c5b(%rip),%xmm9 # 7c50 <_sk_clut_4D_sse41+0x13b2>
+ .byte 68,15,40,13,93,108,0,0 // movaps 0x6c5d(%rip),%xmm9 # 7c50 <_sk_clut_4D_sse41+0x13b4>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -36504,14 +36524,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,21,107,0,0 // movaps 0x6b15(%rip),%xmm2 # 7c60 <_sk_clut_4D_sse41+0x13c2>
+ .byte 15,40,21,23,107,0,0 // movaps 0x6b17(%rip),%xmm2 # 7c60 <_sk_clut_4D_sse41+0x13c4>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,24,107,0,0 // movaps 0x6b18(%rip),%xmm1 # 7c70 <_sk_clut_4D_sse41+0x13d2>
+ .byte 15,40,13,26,107,0,0 // movaps 0x6b1a(%rip),%xmm1 # 7c70 <_sk_clut_4D_sse41+0x13d4>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,23,107,0,0 // movaps 0x6b17(%rip),%xmm13 # 7c80 <_sk_clut_4D_sse41+0x13e2>
+ .byte 68,15,40,45,25,107,0,0 // movaps 0x6b19(%rip),%xmm13 # 7c80 <_sk_clut_4D_sse41+0x13e4>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -36592,7 +36612,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,221,105,0,0 // movaps 0x69dd(%rip),%xmm9 # 7c90 <_sk_clut_4D_sse41+0x13f2>
+ .byte 68,15,40,13,223,105,0,0 // movaps 0x69df(%rip),%xmm9 # 7c90 <_sk_clut_4D_sse41+0x13f4>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -36647,14 +36667,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,40,105,0,0 // movaps 0x6928(%rip),%xmm9 # 7ca0 <_sk_clut_4D_sse41+0x1402>
+ .byte 68,15,40,13,42,105,0,0 // movaps 0x692a(%rip),%xmm9 # 7ca0 <_sk_clut_4D_sse41+0x1404>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,40,105,0,0 // movaps 0x6928(%rip),%xmm10 # 7cb0 <_sk_clut_4D_sse41+0x1412>
+ .byte 68,15,40,21,42,105,0,0 // movaps 0x692a(%rip),%xmm10 # 7cb0 <_sk_clut_4D_sse41+0x1414>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,37,105,0,0 // movaps 0x6925(%rip),%xmm11 # 7cc0 <_sk_clut_4D_sse41+0x1422>
+ .byte 68,15,40,29,39,105,0,0 // movaps 0x6927(%rip),%xmm11 # 7cc0 <_sk_clut_4D_sse41+0x1424>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -36739,7 +36759,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,225,103,0,0 // movaps 0x67e1(%rip),%xmm9 # 7cd0 <_sk_clut_4D_sse41+0x1432>
+ .byte 68,15,40,13,227,103,0,0 // movaps 0x67e3(%rip),%xmm9 # 7cd0 <_sk_clut_4D_sse41+0x1434>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -36791,13 +36811,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,57,103,0,0 // movaps 0x6739(%rip),%xmm8 # 7ce0 <_sk_clut_4D_sse41+0x1442>
+ .byte 68,15,40,5,59,103,0,0 // movaps 0x673b(%rip),%xmm8 # 7ce0 <_sk_clut_4D_sse41+0x1444>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,61,103,0,0 // movaps 0x673d(%rip),%xmm10 # 7cf0 <_sk_clut_4D_sse41+0x1452>
+ .byte 68,15,40,21,63,103,0,0 // movaps 0x673f(%rip),%xmm10 # 7cf0 <_sk_clut_4D_sse41+0x1454>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,59,103,0,0 // movaps 0x673b(%rip),%xmm12 # 7d00 <_sk_clut_4D_sse41+0x1462>
+ .byte 68,15,40,37,61,103,0,0 // movaps 0x673d(%rip),%xmm12 # 7d00 <_sk_clut_4D_sse41+0x1464>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -36882,7 +36902,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,241,101,0,0 // movaps 0x65f1(%rip),%xmm0 # 7d10 <_sk_clut_4D_sse41+0x1472>
+ .byte 15,40,5,243,101,0,0 // movaps 0x65f3(%rip),%xmm0 # 7d10 <_sk_clut_4D_sse41+0x1474>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -36927,23 +36947,23 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,219,0,0,0 // jne 1887 <_sk_srcover_rgba_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1885 <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,129 // movdqu (%r9,%rax,4),%xmm7
.byte 77,133,192 // test %r8,%r8
- .byte 102,15,111,37,99,101,0,0 // movdqa 0x6563(%rip),%xmm4 # 7d20 <_sk_clut_4D_sse41+0x1482>
+ .byte 102,15,111,37,101,101,0,0 // movdqa 0x6565(%rip),%xmm4 # 7d20 <_sk_clut_4D_sse41+0x1484>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,95,101,0,0 // pshufb 0x655f(%rip),%xmm5 # 7d30 <_sk_clut_4D_sse41+0x1492>
+ .byte 102,15,56,0,45,97,101,0,0 // pshufb 0x6561(%rip),%xmm5 # 7d30 <_sk_clut_4D_sse41+0x1494>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,95,101,0,0 // pshufb 0x655f(%rip),%xmm6 # 7d40 <_sk_clut_4D_sse41+0x14a2>
+ .byte 102,15,56,0,53,97,101,0,0 // pshufb 0x6561(%rip),%xmm6 # 7d40 <_sk_clut_4D_sse41+0x14a4>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,92,101,0,0 // movaps 0x655c(%rip),%xmm8 # 7d50 <_sk_clut_4D_sse41+0x14b2>
+ .byte 68,15,40,5,94,101,0,0 // movaps 0x655e(%rip),%xmm8 # 7d50 <_sk_clut_4D_sse41+0x14b4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,96,101,0,0 // movaps 0x6560(%rip),%xmm12 # 7d60 <_sk_clut_4D_sse41+0x14c2>
+ .byte 68,15,40,37,98,101,0,0 // movaps 0x6562(%rip),%xmm12 # 7d60 <_sk_clut_4D_sse41+0x14c4>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36969,7 +36989,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 18c5 <_sk_srcover_rgba_8888_sse41+0x139>
+ .byte 117,88 // jne 18c3 <_sk_srcover_rgba_8888_sse41+0x139>
.byte 243,65,15,127,4,129 // movdqu %xmm0,(%r9,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36980,32 +37000,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,91 // je 18ef <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 116,91 // je 18ed <_sk_srcover_rgba_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,22 // je 18b4 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 18b2 <_sk_srcover_rgba_8888_sse41+0x128>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 15,133,10,255,255,255 // jne 17b2 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 17b0 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,129 // movq (%r9,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 17b2 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 17b0 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,40 // je 18fa <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 18f8 <_sk_srcover_rgba_8888_sse41+0x16e>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,15 // je 18e7 <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 18e5 <_sk_srcover_rgba_8888_sse41+0x15b>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,149 // jne 1873 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,149 // jne 1871 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,129,8,2 // pextrd $0x2,%xmm0,0x8(%r9,%rax,4)
.byte 102,65,15,214,4,129 // movq %xmm0,(%r9,%rax,4)
- .byte 235,132 // jmp 1873 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1871 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,110,60,129 // movd (%r9,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 17b2 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 17b0 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,126,4,129 // movd %xmm0,(%r9,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1873 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1871 <_sk_srcover_rgba_8888_sse41+0xe7>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -37023,7 +37043,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,75,100,0,0 // movaps 0x644b(%rip),%xmm8 # 7d70 <_sk_clut_4D_sse41+0x14d2>
+ .byte 68,15,40,5,77,100,0,0 // movaps 0x644d(%rip),%xmm8 # 7d70 <_sk_clut_4D_sse41+0x14d4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -37035,7 +37055,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,64,100,0,0 // minps 0x6440(%rip),%xmm3 # 7d80 <_sk_clut_4D_sse41+0x14e2>
+ .byte 15,93,29,66,100,0,0 // minps 0x6442(%rip),%xmm3 # 7d80 <_sk_clut_4D_sse41+0x14e4>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -37046,7 +37066,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,60,100,0,0 // minps 0x643c(%rip),%xmm7 # 7d90 <_sk_clut_4D_sse41+0x14f2>
+ .byte 15,93,61,62,100,0,0 // minps 0x643e(%rip),%xmm7 # 7d90 <_sk_clut_4D_sse41+0x14f4>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -37081,7 +37101,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,8,100,0,0 // movaps 0x6408(%rip),%xmm8 # 7da0 <_sk_clut_4D_sse41+0x1502>
+ .byte 68,15,40,5,10,100,0,0 // movaps 0x640a(%rip),%xmm8 # 7da0 <_sk_clut_4D_sse41+0x1504>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -37143,7 +37163,7 @@ HIDDEN _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,162,99,0,0 // movaps 0x63a2(%rip),%xmm9 # 7db0 <_sk_clut_4D_sse41+0x1512>
+ .byte 68,15,40,13,164,99,0,0 // movaps 0x63a4(%rip),%xmm9 # 7db0 <_sk_clut_4D_sse41+0x1514>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -37157,20 +37177,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,141,99,0,0 // movaps 0x638d(%rip),%xmm11 # 7dc0 <_sk_clut_4D_sse41+0x1522>
+ .byte 68,15,40,29,143,99,0,0 // movaps 0x638f(%rip),%xmm11 # 7dc0 <_sk_clut_4D_sse41+0x1524>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,133,99,0,0 // movaps 0x6385(%rip),%xmm12 # 7dd0 <_sk_clut_4D_sse41+0x1532>
+ .byte 68,15,40,37,135,99,0,0 // movaps 0x6387(%rip),%xmm12 # 7dd0 <_sk_clut_4D_sse41+0x1534>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,133,99,0,0 // movaps 0x6385(%rip),%xmm13 # 7de0 <_sk_clut_4D_sse41+0x1542>
+ .byte 68,15,40,45,135,99,0,0 // movaps 0x6387(%rip),%xmm13 # 7de0 <_sk_clut_4D_sse41+0x1544>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,133,99,0,0 // movaps 0x6385(%rip),%xmm14 # 7df0 <_sk_clut_4D_sse41+0x1552>
+ .byte 68,15,40,53,135,99,0,0 // movaps 0x6387(%rip),%xmm14 # 7df0 <_sk_clut_4D_sse41+0x1554>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,137,99,0,0 // movaps 0x6389(%rip),%xmm15 # 7e00 <_sk_clut_4D_sse41+0x1562>
+ .byte 68,15,40,61,139,99,0,0 // movaps 0x638b(%rip),%xmm15 # 7e00 <_sk_clut_4D_sse41+0x1564>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -37207,19 +37227,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,20,99,0,0 // movaps 0x6314(%rip),%xmm11 # 7e10 <_sk_clut_4D_sse41+0x1572>
+ .byte 68,15,40,29,22,99,0,0 // movaps 0x6316(%rip),%xmm11 # 7e10 <_sk_clut_4D_sse41+0x1574>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,13,99,0,0 // movaps 0x630d(%rip),%xmm12 # 7e20 <_sk_clut_4D_sse41+0x1582>
+ .byte 68,15,40,37,15,99,0,0 // movaps 0x630f(%rip),%xmm12 # 7e20 <_sk_clut_4D_sse41+0x1584>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,17,99,0,0 // movaps 0x6311(%rip),%xmm13 # 7e30 <_sk_clut_4D_sse41+0x1592>
+ .byte 68,15,40,45,19,99,0,0 // movaps 0x6313(%rip),%xmm13 # 7e30 <_sk_clut_4D_sse41+0x1594>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,18,99,0,0 // movaps 0x6312(%rip),%xmm14 # 7e40 <_sk_clut_4D_sse41+0x15a2>
+ .byte 68,15,40,53,20,99,0,0 // movaps 0x6314(%rip),%xmm14 # 7e40 <_sk_clut_4D_sse41+0x15a4>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,22,99,0,0 // movaps 0x6316(%rip),%xmm15 # 7e50 <_sk_clut_4D_sse41+0x15b2>
+ .byte 68,15,40,61,24,99,0,0 // movaps 0x6318(%rip),%xmm15 # 7e50 <_sk_clut_4D_sse41+0x15b4>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -37263,22 +37283,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,138,98,0,0 // movaps 0x628a(%rip),%xmm11 # 7e60 <_sk_clut_4D_sse41+0x15c2>
+ .byte 68,15,40,29,140,98,0,0 // movaps 0x628c(%rip),%xmm11 # 7e60 <_sk_clut_4D_sse41+0x15c4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,138,98,0,0 // movaps 0x628a(%rip),%xmm12 # 7e70 <_sk_clut_4D_sse41+0x15d2>
+ .byte 68,15,40,37,140,98,0,0 // movaps 0x628c(%rip),%xmm12 # 7e70 <_sk_clut_4D_sse41+0x15d4>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,138,98,0,0 // movaps 0x628a(%rip),%xmm10 # 7e80 <_sk_clut_4D_sse41+0x15e2>
+ .byte 68,15,40,21,140,98,0,0 // movaps 0x628c(%rip),%xmm10 # 7e80 <_sk_clut_4D_sse41+0x15e4>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,138,98,0,0 // movaps 0x628a(%rip),%xmm13 # 7e90 <_sk_clut_4D_sse41+0x15f2>
+ .byte 68,15,40,45,140,98,0,0 // movaps 0x628c(%rip),%xmm13 # 7e90 <_sk_clut_4D_sse41+0x15f4>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,142,98,0,0 // movaps 0x628e(%rip),%xmm14 # 7ea0 <_sk_clut_4D_sse41+0x1602>
+ .byte 68,15,40,53,144,98,0,0 // movaps 0x6290(%rip),%xmm14 # 7ea0 <_sk_clut_4D_sse41+0x1604>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,138,98,0,0 // movaps 0x628a(%rip),%xmm15 # 7eb0 <_sk_clut_4D_sse41+0x1612>
+ .byte 68,15,40,61,140,98,0,0 // movaps 0x628c(%rip),%xmm15 # 7eb0 <_sk_clut_4D_sse41+0x1614>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -37331,7 +37351,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,226 // minps %xmm2,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,215,97,0,0 // movaps 0x61d7(%rip),%xmm14 # 7ec0 <_sk_clut_4D_sse41+0x1622>
+ .byte 68,15,40,53,217,97,0,0 // movaps 0x61d9(%rip),%xmm14 # 7ec0 <_sk_clut_4D_sse41+0x1624>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -37340,27 +37360,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,190,97,0,0 // andps 0x61be(%rip),%xmm15 # 7ed0 <_sk_clut_4D_sse41+0x1632>
+ .byte 68,15,84,61,192,97,0,0 // andps 0x61c0(%rip),%xmm15 # 7ed0 <_sk_clut_4D_sse41+0x1634>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,177,97,0,0 // movaps 0x61b1(%rip),%xmm13 # 7ee0 <_sk_clut_4D_sse41+0x1642>
+ .byte 68,15,40,45,179,97,0,0 // movaps 0x61b3(%rip),%xmm13 # 7ee0 <_sk_clut_4D_sse41+0x1644>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,173,97,0,0 // addps 0x61ad(%rip),%xmm8 # 7ef0 <_sk_clut_4D_sse41+0x1652>
+ .byte 68,15,88,5,175,97,0,0 // addps 0x61af(%rip),%xmm8 # 7ef0 <_sk_clut_4D_sse41+0x1654>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,165,97,0,0 // mulps 0x61a5(%rip),%xmm8 # 7f00 <_sk_clut_4D_sse41+0x1662>
+ .byte 68,15,89,5,167,97,0,0 // mulps 0x61a7(%rip),%xmm8 # 7f00 <_sk_clut_4D_sse41+0x1664>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,153,97,0,0 // movaps 0x6199(%rip),%xmm0 # 7f10 <_sk_clut_4D_sse41+0x1672>
+ .byte 15,40,5,155,97,0,0 // movaps 0x619b(%rip),%xmm0 # 7f10 <_sk_clut_4D_sse41+0x1674>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -37382,7 +37402,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,95,97,0,0 // movaps 0x615f(%rip),%xmm9 # 7f20 <_sk_clut_4D_sse41+0x1682>
+ .byte 68,15,40,13,97,97,0,0 // movaps 0x6161(%rip),%xmm9 # 7f20 <_sk_clut_4D_sse41+0x1684>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -37395,19 +37415,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,58,97,0,0 // movaps 0x613a(%rip),%xmm14 # 7f30 <_sk_clut_4D_sse41+0x1692>
+ .byte 68,15,40,53,60,97,0,0 // movaps 0x613c(%rip),%xmm14 # 7f30 <_sk_clut_4D_sse41+0x1694>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,51,97,0,0 // movaps 0x6133(%rip),%xmm11 # 7f40 <_sk_clut_4D_sse41+0x16a2>
+ .byte 68,15,40,29,53,97,0,0 // movaps 0x6135(%rip),%xmm11 # 7f40 <_sk_clut_4D_sse41+0x16a4>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,44,97,0,0 // movaps 0x612c(%rip),%xmm7 # 7f50 <_sk_clut_4D_sse41+0x16b2>
+ .byte 15,40,61,46,97,0,0 // movaps 0x612e(%rip),%xmm7 # 7f50 <_sk_clut_4D_sse41+0x16b4>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,45,97,0,0 // movaps 0x612d(%rip),%xmm3 # 7f60 <_sk_clut_4D_sse41+0x16c2>
+ .byte 15,40,29,47,97,0,0 // movaps 0x612f(%rip),%xmm3 # 7f60 <_sk_clut_4D_sse41+0x16c4>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -37417,7 +37437,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,12,97,0,0 // movaps 0x610c(%rip),%xmm12 # 7f70 <_sk_clut_4D_sse41+0x16d2>
+ .byte 68,15,40,37,14,97,0,0 // movaps 0x610e(%rip),%xmm12 # 7f70 <_sk_clut_4D_sse41+0x16d4>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -37451,7 +37471,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,132,96,0,0 // addps 0x6084(%rip),%xmm10 # 7f80 <_sk_clut_4D_sse41+0x16e2>
+ .byte 68,15,88,21,134,96,0,0 // addps 0x6086(%rip),%xmm10 # 7f80 <_sk_clut_4D_sse41+0x16e4>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -37506,11 +37526,11 @@ _sk_scale_u8_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,52 // jne 1fe3 <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1fe1 <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm8
- .byte 102,68,15,219,5,209,95,0,0 // pand 0x5fd1(%rip),%xmm8 # 7f90 <_sk_clut_4D_sse41+0x16f2>
+ .byte 102,68,15,219,5,211,95,0,0 // pand 0x5fd3(%rip),%xmm8 # 7f90 <_sk_clut_4D_sse41+0x16f4>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,213,95,0,0 // mulps 0x5fd5(%rip),%xmm8 # 7fa0 <_sk_clut_4D_sse41+0x1702>
+ .byte 68,15,89,5,215,95,0,0 // mulps 0x5fd7(%rip),%xmm8 # 7fa0 <_sk_clut_4D_sse41+0x1704>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -37521,12 +37541,12 @@ _sk_scale_u8_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,59 // je 202b <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 2029 <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 2012 <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 2010 <_sk_scale_u8_sse41+0x7b>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,181 // jne 1fb6 <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1fb4 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37534,10 +37554,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1fb6 <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1fb4 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1fb6 <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1fb4 <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -37572,11 +37592,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,72 // jne 20d2 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 20d0 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm8
- .byte 102,68,15,219,5,22,95,0,0 // pand 0x5f16(%rip),%xmm8 # 7fb0 <_sk_clut_4D_sse41+0x1712>
+ .byte 102,68,15,219,5,24,95,0,0 // pand 0x5f18(%rip),%xmm8 # 7fb0 <_sk_clut_4D_sse41+0x1714>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,26,95,0,0 // mulps 0x5f1a(%rip),%xmm8 # 7fc0 <_sk_clut_4D_sse41+0x1722>
+ .byte 68,15,89,5,28,95,0,0 // mulps 0x5f1c(%rip),%xmm8 # 7fc0 <_sk_clut_4D_sse41+0x1724>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37594,12 +37614,12 @@ _sk_lerp_u8_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,62 // je 211d <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 211b <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 2101 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 20ff <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,161 // jne 2091 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 208f <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37607,10 +37627,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 2091 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 208f <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 2091 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 208f <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -37624,19 +37644,19 @@ _sk_lerp_565_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,152,0,0,0 // jne 21e3 <_sk_lerp_565_sse41+0xb7>
+ .byte 15,133,152,0,0,0 // jne 21e1 <_sk_lerp_565_sse41+0xb7>
.byte 102,71,15,56,51,20,89 // pmovzxwd (%r9,%r11,2),%xmm10
- .byte 102,68,15,111,5,117,94,0,0 // movdqa 0x5e75(%rip),%xmm8 # 7fd0 <_sk_clut_4D_sse41+0x1732>
+ .byte 102,68,15,111,5,119,94,0,0 // movdqa 0x5e77(%rip),%xmm8 # 7fd0 <_sk_clut_4D_sse41+0x1734>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,116,94,0,0 // mulps 0x5e74(%rip),%xmm8 # 7fe0 <_sk_clut_4D_sse41+0x1742>
- .byte 102,68,15,111,13,123,94,0,0 // movdqa 0x5e7b(%rip),%xmm9 # 7ff0 <_sk_clut_4D_sse41+0x1752>
+ .byte 68,15,89,5,118,94,0,0 // mulps 0x5e76(%rip),%xmm8 # 7fe0 <_sk_clut_4D_sse41+0x1744>
+ .byte 102,68,15,111,13,125,94,0,0 // movdqa 0x5e7d(%rip),%xmm9 # 7ff0 <_sk_clut_4D_sse41+0x1754>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,122,94,0,0 // mulps 0x5e7a(%rip),%xmm9 # 8000 <_sk_clut_4D_sse41+0x1762>
- .byte 102,68,15,219,21,129,94,0,0 // pand 0x5e81(%rip),%xmm10 # 8010 <_sk_clut_4D_sse41+0x1772>
+ .byte 68,15,89,13,124,94,0,0 // mulps 0x5e7c(%rip),%xmm9 # 8000 <_sk_clut_4D_sse41+0x1764>
+ .byte 102,68,15,219,21,131,94,0,0 // pand 0x5e83(%rip),%xmm10 # 8010 <_sk_clut_4D_sse41+0x1774>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,133,94,0,0 // mulps 0x5e85(%rip),%xmm10 # 8020 <_sk_clut_4D_sse41+0x1782>
+ .byte 68,15,89,21,135,94,0,0 // mulps 0x5e87(%rip),%xmm10 # 8020 <_sk_clut_4D_sse41+0x1784>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37661,22 +37681,22 @@ _sk_lerp_565_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,62 // je 222e <_sk_lerp_565_sse41+0x102>
+ .byte 116,62 // je 222c <_sk_lerp_565_sse41+0x102>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,27 // je 2216 <_sk_lerp_565_sse41+0xea>
+ .byte 116,27 // je 2214 <_sk_lerp_565_sse41+0xea>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 15,133,77,255,255,255 // jne 2152 <_sk_lerp_565_sse41+0x26>
+ .byte 15,133,77,255,255,255 // jne 2150 <_sk_lerp_565_sse41+0x26>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,89 // movd (%r9,%r11,2),%xmm8
.byte 102,69,15,56,51,192 // pmovzxwd %xmm8,%xmm8
.byte 102,69,15,58,14,208,15 // pblendw $0xf,%xmm8,%xmm10
- .byte 233,36,255,255,255 // jmpq 2152 <_sk_lerp_565_sse41+0x26>
+ .byte 233,36,255,255,255 // jmpq 2150 <_sk_lerp_565_sse41+0x26>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,21,255,255,255 // jmpq 2152 <_sk_lerp_565_sse41+0x26>
+ .byte 233,21,255,255,255 // jmpq 2150 <_sk_lerp_565_sse41+0x26>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -37685,12 +37705,12 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,8 // mov (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,24,1,0,0 // jne 2363 <_sk_load_tables_sse41+0x126>
+ .byte 15,133,24,1,0,0 // jne 2361 <_sk_load_tables_sse41+0x126>
.byte 243,69,15,111,4,145 // movdqu (%r9,%rdx,4),%xmm8
.byte 65,87 // push %r15
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,210,93,0,0 // movdqa 0x5dd2(%rip),%xmm0 # 8030 <_sk_clut_4D_sse41+0x1792>
+ .byte 102,15,111,5,212,93,0,0 // movdqa 0x5dd4(%rip),%xmm0 # 8030 <_sk_clut_4D_sse41+0x1794>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9
.byte 102,73,15,126,194 // movq %xmm0,%r10
@@ -37705,7 +37725,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,179,32 // insertps $0x20,(%rbx,%r14,4),%xmm0
.byte 102,66,15,58,33,4,11,48 // insertps $0x30,(%rbx,%r9,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,141,93,0,0 // pshufb 0x5d8d(%rip),%xmm1 # 8040 <_sk_clut_4D_sse41+0x17a2>
+ .byte 102,15,56,0,13,143,93,0,0 // pshufb 0x5d8f(%rip),%xmm1 # 8040 <_sk_clut_4D_sse41+0x17a4>
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,211 // movzbl %bl,%r10d
@@ -37720,7 +37740,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,72,24 // mov 0x18(%rax),%r9
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,73,93,0,0 // pshufb 0x5d49(%rip),%xmm2 # 8050 <_sk_clut_4D_sse41+0x17b2>
+ .byte 102,15,56,0,21,75,93,0,0 // pshufb 0x5d4b(%rip),%xmm2 # 8050 <_sk_clut_4D_sse41+0x17b4>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,208 // movzbl %al,%r10d
@@ -37735,7 +37755,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,6,93,0,0 // mulps 0x5d06(%rip),%xmm3 # 8060 <_sk_clut_4D_sse41+0x17c2>
+ .byte 15,89,29,8,93,0,0 // mulps 0x5d08(%rip),%xmm3 # 8060 <_sk_clut_4D_sse41+0x17c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37744,19 +37764,19 @@ _sk_load_tables_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,52 // je 23a4 <_sk_load_tables_sse41+0x167>
+ .byte 116,52 // je 23a2 <_sk_load_tables_sse41+0x167>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 2392 <_sk_load_tables_sse41+0x155>
+ .byte 116,23 // je 2390 <_sk_load_tables_sse41+0x155>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 15,133,204,254,255,255 // jne 2251 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,204,254,255,255 // jne 224f <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,145,8 // movd 0x8(%r9,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,145 // movq (%r9,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,173,254,255,255 // jmpq 2251 <_sk_load_tables_sse41+0x14>
+ .byte 233,173,254,255,255 // jmpq 224f <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,145 // movd (%r9,%rdx,4),%xmm8
- .byte 233,162,254,255,255 // jmpq 2251 <_sk_load_tables_sse41+0x14>
+ .byte 233,162,254,255,255 // jmpq 224f <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -37766,7 +37786,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,8 // mov (%rax),%r9
.byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,99,1,0,0 // jne 2528 <_sk_load_tables_u16_be_sse41+0x179>
+ .byte 15,133,99,1,0,0 // jne 2526 <_sk_load_tables_u16_be_sse41+0x179>
.byte 102,67,15,16,4,81 // movupd (%r9,%r10,2),%xmm0
.byte 243,67,15,111,76,81,16 // movdqu 0x10(%r9,%r10,2),%xmm1
.byte 65,87 // push %r15
@@ -37778,7 +37798,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,116,92,0,0 // movdqa 0x5c74(%rip),%xmm8 # 8070 <_sk_clut_4D_sse41+0x17d2>
+ .byte 102,68,15,111,5,118,92,0,0 // movdqa 0x5c76(%rip),%xmm8 # 8070 <_sk_clut_4D_sse41+0x17d4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -37796,7 +37816,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,11 // movss (%rbx,%r9,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,35,92,0,0 // pshufb 0x5c23(%rip),%xmm1 # 8080 <_sk_clut_4D_sse41+0x17e2>
+ .byte 102,15,56,0,13,37,92,0,0 // pshufb 0x5c25(%rip),%xmm1 # 8080 <_sk_clut_4D_sse41+0x17e4>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37832,7 +37852,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,113,91,0,0 // mulps 0x5b71(%rip),%xmm3 # 8090 <_sk_clut_4D_sse41+0x17f2>
+ .byte 15,89,29,115,91,0,0 // mulps 0x5b73(%rip),%xmm3 # 8090 <_sk_clut_4D_sse41+0x17f4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37840,16 +37860,16 @@ _sk_load_tables_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,81 // movsd (%r9,%r10,2),%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,13 // jne 2541 <_sk_load_tables_u16_be_sse41+0x192>
+ .byte 117,13 // jne 253f <_sk_load_tables_u16_be_sse41+0x192>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,145,254,255,255 // jmpq 23d2 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,145,254,255,255 // jmpq 23d0 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,81,8 // movhpd 0x8(%r9,%r10,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,124,254,255,255 // jb 23d2 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,124,254,255,255 // jb 23d0 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,81,16 // movq 0x10(%r9,%r10,2),%xmm1
- .byte 233,112,254,255,255 // jmpq 23d2 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,112,254,255,255 // jmpq 23d0 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -37859,7 +37879,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,8 // mov (%rax),%r9
.byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,83,1,0,0 // jne 26c7 <_sk_load_tables_rgb_u16_be_sse41+0x165>
+ .byte 15,133,83,1,0,0 // jne 26c5 <_sk_load_tables_rgb_u16_be_sse41+0x165>
.byte 243,67,15,111,20,81 // movdqu (%r9,%r10,2),%xmm2
.byte 243,67,15,111,76,81,8 // movdqu 0x8(%r9,%r10,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37874,7 +37894,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,230,90,0,0 // movdqa 0x5ae6(%rip),%xmm8 # 80a0 <_sk_clut_4D_sse41+0x1802>
+ .byte 102,68,15,111,5,232,90,0,0 // movdqa 0x5ae8(%rip),%xmm8 # 80a0 <_sk_clut_4D_sse41+0x1804>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -37892,7 +37912,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,11 // movss (%rbx,%r9,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,149,90,0,0 // pshufb 0x5a95(%rip),%xmm1 # 80b0 <_sk_clut_4D_sse41+0x1812>
+ .byte 102,15,56,0,13,151,90,0,0 // pshufb 0x5a97(%rip),%xmm1 # 80b0 <_sk_clut_4D_sse41+0x1814>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37923,7 +37943,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,25 // movss (%r9,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,0,90,0,0 // movaps 0x5a00(%rip),%xmm3 # 80c0 <_sk_clut_4D_sse41+0x1822>
+ .byte 15,40,29,2,90,0,0 // movaps 0x5a02(%rip),%xmm3 # 80c0 <_sk_clut_4D_sse41+0x1824>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 65,95 // pop %r15
@@ -37932,21 +37952,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,67,15,196,84,81,4,2 // pinsrw $0x2,0x4(%r9,%r10,2),%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,14 // jne 26ed <_sk_load_tables_rgb_u16_be_sse41+0x18b>
+ .byte 117,14 // jne 26eb <_sk_load_tables_rgb_u16_be_sse41+0x18b>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,173,254,255,255 // jmpq 259a <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,173,254,255,255 // jmpq 2598 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,81,6 // movd 0x6(%r9,%r10,2),%xmm9
.byte 102,71,15,196,76,81,10,2 // pinsrw $0x2,0xa(%r9,%r10,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,24 // jb 271e <_sk_load_tables_rgb_u16_be_sse41+0x1bc>
+ .byte 114,24 // jb 271c <_sk_load_tables_rgb_u16_be_sse41+0x1bc>
.byte 102,67,15,110,76,81,12 // movd 0xc(%r9,%r10,2),%xmm1
.byte 102,67,15,196,76,81,16,2 // pinsrw $0x2,0x10(%r9,%r10,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,124,254,255,255 // jmpq 259a <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,124,254,255,255 // jmpq 2598 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,115,254,255,255 // jmpq 259a <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,115,254,255,255 // jmpq 2598 <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -37957,7 +37977,7 @@ _sk_byte_tables_sse41:
.byte 65,84 // push %r12
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,152,89,0,0 // movaps 0x5998(%rip),%xmm8 # 80d0 <_sk_clut_4D_sse41+0x1832>
+ .byte 68,15,40,5,154,89,0,0 // movaps 0x599a(%rip),%xmm8 # 80d0 <_sk_clut_4D_sse41+0x1834>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9
@@ -37976,7 +37996,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,195,3 // pinsrb $0x3,%ebx,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,73,89,0,0 // movaps 0x5949(%rip),%xmm9 # 80e0 <_sk_clut_4D_sse41+0x1842>
+ .byte 68,15,40,13,75,89,0,0 // movaps 0x594b(%rip),%xmm9 # 80e0 <_sk_clut_4D_sse41+0x1844>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -38072,7 +38092,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,195,3 // pinsrb $0x3,%ebx,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,193,87,0,0 // movaps 0x57c1(%rip),%xmm9 # 80f0 <_sk_clut_4D_sse41+0x1852>
+ .byte 68,15,40,13,195,87,0,0 // movaps 0x57c3(%rip),%xmm9 # 80f0 <_sk_clut_4D_sse41+0x1854>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -38259,31 +38279,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,9,85,0,0 // mulps 0x5509(%rip),%xmm8 # 8100 <_sk_clut_4D_sse41+0x1862>
- .byte 68,15,84,21,17,85,0,0 // andps 0x5511(%rip),%xmm10 # 8110 <_sk_clut_4D_sse41+0x1872>
- .byte 68,15,86,21,25,85,0,0 // orps 0x5519(%rip),%xmm10 # 8120 <_sk_clut_4D_sse41+0x1882>
- .byte 68,15,88,5,33,85,0,0 // addps 0x5521(%rip),%xmm8 # 8130 <_sk_clut_4D_sse41+0x1892>
- .byte 68,15,40,37,41,85,0,0 // movaps 0x5529(%rip),%xmm12 # 8140 <_sk_clut_4D_sse41+0x18a2>
+ .byte 68,15,89,5,11,85,0,0 // mulps 0x550b(%rip),%xmm8 # 8100 <_sk_clut_4D_sse41+0x1864>
+ .byte 68,15,84,21,19,85,0,0 // andps 0x5513(%rip),%xmm10 # 8110 <_sk_clut_4D_sse41+0x1874>
+ .byte 68,15,86,21,27,85,0,0 // orps 0x551b(%rip),%xmm10 # 8120 <_sk_clut_4D_sse41+0x1884>
+ .byte 68,15,88,5,35,85,0,0 // addps 0x5523(%rip),%xmm8 # 8130 <_sk_clut_4D_sse41+0x1894>
+ .byte 68,15,40,37,43,85,0,0 // movaps 0x552b(%rip),%xmm12 # 8140 <_sk_clut_4D_sse41+0x18a4>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,41,85,0,0 // addps 0x5529(%rip),%xmm10 # 8150 <_sk_clut_4D_sse41+0x18b2>
- .byte 68,15,40,37,49,85,0,0 // movaps 0x5531(%rip),%xmm12 # 8160 <_sk_clut_4D_sse41+0x18c2>
+ .byte 68,15,88,21,43,85,0,0 // addps 0x552b(%rip),%xmm10 # 8150 <_sk_clut_4D_sse41+0x18b4>
+ .byte 68,15,40,37,51,85,0,0 // movaps 0x5533(%rip),%xmm12 # 8160 <_sk_clut_4D_sse41+0x18c4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,30,85,0,0 // addps 0x551e(%rip),%xmm8 # 8170 <_sk_clut_4D_sse41+0x18d2>
- .byte 68,15,40,21,38,85,0,0 // movaps 0x5526(%rip),%xmm10 # 8180 <_sk_clut_4D_sse41+0x18e2>
+ .byte 68,15,88,5,32,85,0,0 // addps 0x5520(%rip),%xmm8 # 8170 <_sk_clut_4D_sse41+0x18d4>
+ .byte 68,15,40,21,40,85,0,0 // movaps 0x5528(%rip),%xmm10 # 8180 <_sk_clut_4D_sse41+0x18e4>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,38,85,0,0 // movaps 0x5526(%rip),%xmm10 # 8190 <_sk_clut_4D_sse41+0x18f2>
+ .byte 68,15,40,21,40,85,0,0 // movaps 0x5528(%rip),%xmm10 # 8190 <_sk_clut_4D_sse41+0x18f4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,42,85,0,0 // movaps 0x552a(%rip),%xmm11 # 81a0 <_sk_clut_4D_sse41+0x1902>
+ .byte 68,15,40,29,44,85,0,0 // movaps 0x552c(%rip),%xmm11 # 81a0 <_sk_clut_4D_sse41+0x1904>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,42,85,0,0 // mulps 0x552a(%rip),%xmm11 # 81b0 <_sk_clut_4D_sse41+0x1912>
+ .byte 68,15,89,29,44,85,0,0 // mulps 0x552c(%rip),%xmm11 # 81b0 <_sk_clut_4D_sse41+0x1914>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -38291,7 +38311,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,17,85,0,0 // minps 0x5511(%rip),%xmm8 # 81c0 <_sk_clut_4D_sse41+0x1922>
+ .byte 68,15,93,5,19,85,0,0 // minps 0x5513(%rip),%xmm8 # 81c0 <_sk_clut_4D_sse41+0x1924>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38321,31 +38341,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,178,84,0,0 // mulps 0x54b2(%rip),%xmm12 # 81d0 <_sk_clut_4D_sse41+0x1932>
- .byte 68,15,84,29,186,84,0,0 // andps 0x54ba(%rip),%xmm11 # 81e0 <_sk_clut_4D_sse41+0x1942>
- .byte 68,15,86,29,194,84,0,0 // orps 0x54c2(%rip),%xmm11 # 81f0 <_sk_clut_4D_sse41+0x1952>
- .byte 68,15,88,37,202,84,0,0 // addps 0x54ca(%rip),%xmm12 # 8200 <_sk_clut_4D_sse41+0x1962>
- .byte 15,40,13,211,84,0,0 // movaps 0x54d3(%rip),%xmm1 # 8210 <_sk_clut_4D_sse41+0x1972>
+ .byte 68,15,89,37,180,84,0,0 // mulps 0x54b4(%rip),%xmm12 # 81d0 <_sk_clut_4D_sse41+0x1934>
+ .byte 68,15,84,29,188,84,0,0 // andps 0x54bc(%rip),%xmm11 # 81e0 <_sk_clut_4D_sse41+0x1944>
+ .byte 68,15,86,29,196,84,0,0 // orps 0x54c4(%rip),%xmm11 # 81f0 <_sk_clut_4D_sse41+0x1954>
+ .byte 68,15,88,37,204,84,0,0 // addps 0x54cc(%rip),%xmm12 # 8200 <_sk_clut_4D_sse41+0x1964>
+ .byte 15,40,13,213,84,0,0 // movaps 0x54d5(%rip),%xmm1 # 8210 <_sk_clut_4D_sse41+0x1974>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,211,84,0,0 // addps 0x54d3(%rip),%xmm11 # 8220 <_sk_clut_4D_sse41+0x1982>
- .byte 15,40,13,220,84,0,0 // movaps 0x54dc(%rip),%xmm1 # 8230 <_sk_clut_4D_sse41+0x1992>
+ .byte 68,15,88,29,213,84,0,0 // addps 0x54d5(%rip),%xmm11 # 8220 <_sk_clut_4D_sse41+0x1984>
+ .byte 15,40,13,222,84,0,0 // movaps 0x54de(%rip),%xmm1 # 8230 <_sk_clut_4D_sse41+0x1994>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,201,84,0,0 // addps 0x54c9(%rip),%xmm12 # 8240 <_sk_clut_4D_sse41+0x19a2>
- .byte 15,40,13,210,84,0,0 // movaps 0x54d2(%rip),%xmm1 # 8250 <_sk_clut_4D_sse41+0x19b2>
+ .byte 68,15,88,37,203,84,0,0 // addps 0x54cb(%rip),%xmm12 # 8240 <_sk_clut_4D_sse41+0x19a4>
+ .byte 15,40,13,212,84,0,0 // movaps 0x54d4(%rip),%xmm1 # 8250 <_sk_clut_4D_sse41+0x19b4>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,210,84,0,0 // movaps 0x54d2(%rip),%xmm10 # 8260 <_sk_clut_4D_sse41+0x19c2>
+ .byte 68,15,40,21,212,84,0,0 // movaps 0x54d4(%rip),%xmm10 # 8260 <_sk_clut_4D_sse41+0x19c4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,215,84,0,0 // movaps 0x54d7(%rip),%xmm1 # 8270 <_sk_clut_4D_sse41+0x19d2>
+ .byte 15,40,13,217,84,0,0 // movaps 0x54d9(%rip),%xmm1 # 8270 <_sk_clut_4D_sse41+0x19d4>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,216,84,0,0 // mulps 0x54d8(%rip),%xmm1 # 8280 <_sk_clut_4D_sse41+0x19e2>
+ .byte 15,89,13,218,84,0,0 // mulps 0x54da(%rip),%xmm1 # 8280 <_sk_clut_4D_sse41+0x19e4>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -38353,7 +38373,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,195,84,0,0 // minps 0x54c3(%rip),%xmm1 # 8290 <_sk_clut_4D_sse41+0x19f2>
+ .byte 15,93,13,197,84,0,0 // minps 0x54c5(%rip),%xmm1 # 8290 <_sk_clut_4D_sse41+0x19f4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38383,31 +38403,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,100,84,0,0 // mulps 0x5464(%rip),%xmm12 # 82a0 <_sk_clut_4D_sse41+0x1a02>
- .byte 68,15,84,29,108,84,0,0 // andps 0x546c(%rip),%xmm11 # 82b0 <_sk_clut_4D_sse41+0x1a12>
- .byte 68,15,86,29,116,84,0,0 // orps 0x5474(%rip),%xmm11 # 82c0 <_sk_clut_4D_sse41+0x1a22>
- .byte 68,15,88,37,124,84,0,0 // addps 0x547c(%rip),%xmm12 # 82d0 <_sk_clut_4D_sse41+0x1a32>
- .byte 15,40,21,133,84,0,0 // movaps 0x5485(%rip),%xmm2 # 82e0 <_sk_clut_4D_sse41+0x1a42>
+ .byte 68,15,89,37,102,84,0,0 // mulps 0x5466(%rip),%xmm12 # 82a0 <_sk_clut_4D_sse41+0x1a04>
+ .byte 68,15,84,29,110,84,0,0 // andps 0x546e(%rip),%xmm11 # 82b0 <_sk_clut_4D_sse41+0x1a14>
+ .byte 68,15,86,29,118,84,0,0 // orps 0x5476(%rip),%xmm11 # 82c0 <_sk_clut_4D_sse41+0x1a24>
+ .byte 68,15,88,37,126,84,0,0 // addps 0x547e(%rip),%xmm12 # 82d0 <_sk_clut_4D_sse41+0x1a34>
+ .byte 15,40,21,135,84,0,0 // movaps 0x5487(%rip),%xmm2 # 82e0 <_sk_clut_4D_sse41+0x1a44>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,133,84,0,0 // addps 0x5485(%rip),%xmm11 # 82f0 <_sk_clut_4D_sse41+0x1a52>
- .byte 15,40,21,142,84,0,0 // movaps 0x548e(%rip),%xmm2 # 8300 <_sk_clut_4D_sse41+0x1a62>
+ .byte 68,15,88,29,135,84,0,0 // addps 0x5487(%rip),%xmm11 # 82f0 <_sk_clut_4D_sse41+0x1a54>
+ .byte 15,40,21,144,84,0,0 // movaps 0x5490(%rip),%xmm2 # 8300 <_sk_clut_4D_sse41+0x1a64>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,123,84,0,0 // addps 0x547b(%rip),%xmm12 # 8310 <_sk_clut_4D_sse41+0x1a72>
- .byte 15,40,21,132,84,0,0 // movaps 0x5484(%rip),%xmm2 # 8320 <_sk_clut_4D_sse41+0x1a82>
+ .byte 68,15,88,37,125,84,0,0 // addps 0x547d(%rip),%xmm12 # 8310 <_sk_clut_4D_sse41+0x1a74>
+ .byte 15,40,21,134,84,0,0 // movaps 0x5486(%rip),%xmm2 # 8320 <_sk_clut_4D_sse41+0x1a84>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,132,84,0,0 // movaps 0x5484(%rip),%xmm10 # 8330 <_sk_clut_4D_sse41+0x1a92>
+ .byte 68,15,40,21,134,84,0,0 // movaps 0x5486(%rip),%xmm10 # 8330 <_sk_clut_4D_sse41+0x1a94>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,137,84,0,0 // movaps 0x5489(%rip),%xmm2 # 8340 <_sk_clut_4D_sse41+0x1aa2>
+ .byte 15,40,21,139,84,0,0 // movaps 0x548b(%rip),%xmm2 # 8340 <_sk_clut_4D_sse41+0x1aa4>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,138,84,0,0 // mulps 0x548a(%rip),%xmm2 # 8350 <_sk_clut_4D_sse41+0x1ab2>
+ .byte 15,89,21,140,84,0,0 // mulps 0x548c(%rip),%xmm2 # 8350 <_sk_clut_4D_sse41+0x1ab4>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -38415,7 +38435,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,117,84,0,0 // minps 0x5475(%rip),%xmm2 # 8360 <_sk_clut_4D_sse41+0x1ac2>
+ .byte 15,93,21,119,84,0,0 // minps 0x5477(%rip),%xmm2 # 8360 <_sk_clut_4D_sse41+0x1ac4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38445,31 +38465,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,22,84,0,0 // mulps 0x5416(%rip),%xmm12 # 8370 <_sk_clut_4D_sse41+0x1ad2>
- .byte 68,15,84,29,30,84,0,0 // andps 0x541e(%rip),%xmm11 # 8380 <_sk_clut_4D_sse41+0x1ae2>
- .byte 68,15,86,29,38,84,0,0 // orps 0x5426(%rip),%xmm11 # 8390 <_sk_clut_4D_sse41+0x1af2>
- .byte 68,15,88,37,46,84,0,0 // addps 0x542e(%rip),%xmm12 # 83a0 <_sk_clut_4D_sse41+0x1b02>
- .byte 15,40,29,55,84,0,0 // movaps 0x5437(%rip),%xmm3 # 83b0 <_sk_clut_4D_sse41+0x1b12>
+ .byte 68,15,89,37,24,84,0,0 // mulps 0x5418(%rip),%xmm12 # 8370 <_sk_clut_4D_sse41+0x1ad4>
+ .byte 68,15,84,29,32,84,0,0 // andps 0x5420(%rip),%xmm11 # 8380 <_sk_clut_4D_sse41+0x1ae4>
+ .byte 68,15,86,29,40,84,0,0 // orps 0x5428(%rip),%xmm11 # 8390 <_sk_clut_4D_sse41+0x1af4>
+ .byte 68,15,88,37,48,84,0,0 // addps 0x5430(%rip),%xmm12 # 83a0 <_sk_clut_4D_sse41+0x1b04>
+ .byte 15,40,29,57,84,0,0 // movaps 0x5439(%rip),%xmm3 # 83b0 <_sk_clut_4D_sse41+0x1b14>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,55,84,0,0 // addps 0x5437(%rip),%xmm11 # 83c0 <_sk_clut_4D_sse41+0x1b22>
- .byte 15,40,29,64,84,0,0 // movaps 0x5440(%rip),%xmm3 # 83d0 <_sk_clut_4D_sse41+0x1b32>
+ .byte 68,15,88,29,57,84,0,0 // addps 0x5439(%rip),%xmm11 # 83c0 <_sk_clut_4D_sse41+0x1b24>
+ .byte 15,40,29,66,84,0,0 // movaps 0x5442(%rip),%xmm3 # 83d0 <_sk_clut_4D_sse41+0x1b34>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,45,84,0,0 // addps 0x542d(%rip),%xmm12 # 83e0 <_sk_clut_4D_sse41+0x1b42>
- .byte 15,40,29,54,84,0,0 // movaps 0x5436(%rip),%xmm3 # 83f0 <_sk_clut_4D_sse41+0x1b52>
+ .byte 68,15,88,37,47,84,0,0 // addps 0x542f(%rip),%xmm12 # 83e0 <_sk_clut_4D_sse41+0x1b44>
+ .byte 15,40,29,56,84,0,0 // movaps 0x5438(%rip),%xmm3 # 83f0 <_sk_clut_4D_sse41+0x1b54>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,54,84,0,0 // movaps 0x5436(%rip),%xmm10 # 8400 <_sk_clut_4D_sse41+0x1b62>
+ .byte 68,15,40,21,56,84,0,0 // movaps 0x5438(%rip),%xmm10 # 8400 <_sk_clut_4D_sse41+0x1b64>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,59,84,0,0 // movaps 0x543b(%rip),%xmm3 # 8410 <_sk_clut_4D_sse41+0x1b72>
+ .byte 15,40,29,61,84,0,0 // movaps 0x543d(%rip),%xmm3 # 8410 <_sk_clut_4D_sse41+0x1b74>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,60,84,0,0 // mulps 0x543c(%rip),%xmm3 # 8420 <_sk_clut_4D_sse41+0x1b82>
+ .byte 15,89,29,62,84,0,0 // mulps 0x543e(%rip),%xmm3 # 8420 <_sk_clut_4D_sse41+0x1b84>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -38477,7 +38497,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,39,84,0,0 // minps 0x5427(%rip),%xmm3 # 8430 <_sk_clut_4D_sse41+0x1b92>
+ .byte 15,93,29,41,84,0,0 // minps 0x5429(%rip),%xmm3 # 8430 <_sk_clut_4D_sse41+0x1b94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38494,20 +38514,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,6,84,0,0 // mulps 0x5406(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba2>
- .byte 68,15,40,53,14,84,0,0 // movaps 0x540e(%rip),%xmm14 # 8450 <_sk_clut_4D_sse41+0x1bb2>
+ .byte 15,89,5,8,84,0,0 // mulps 0x5408(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba4>
+ .byte 68,15,40,53,16,84,0,0 // movaps 0x5410(%rip),%xmm14 # 8450 <_sk_clut_4D_sse41+0x1bb4>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,18,84,0,0 // movaps 0x5412(%rip),%xmm12 # 8460 <_sk_clut_4D_sse41+0x1bc2>
+ .byte 68,15,40,37,20,84,0,0 // movaps 0x5414(%rip),%xmm12 # 8460 <_sk_clut_4D_sse41+0x1bc4>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,22,84,0,0 // movaps 0x5416(%rip),%xmm10 # 8470 <_sk_clut_4D_sse41+0x1bd2>
+ .byte 68,15,40,21,24,84,0,0 // movaps 0x5418(%rip),%xmm10 # 8470 <_sk_clut_4D_sse41+0x1bd4>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,26,84,0,0 // movaps 0x541a(%rip),%xmm11 # 8480 <_sk_clut_4D_sse41+0x1be2>
+ .byte 68,15,40,29,28,84,0,0 // movaps 0x541c(%rip),%xmm11 # 8480 <_sk_clut_4D_sse41+0x1be4>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,24,84,0,0 // movaps 0x5418(%rip),%xmm9 # 8490 <_sk_clut_4D_sse41+0x1bf2>
+ .byte 68,15,40,13,26,84,0,0 // movaps 0x541a(%rip),%xmm9 # 8490 <_sk_clut_4D_sse41+0x1bf4>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,28,84,0,0 // movaps 0x541c(%rip),%xmm13 # 84a0 <_sk_clut_4D_sse41+0x1c02>
+ .byte 68,15,40,45,30,84,0,0 // movaps 0x541e(%rip),%xmm13 # 84a0 <_sk_clut_4D_sse41+0x1c04>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38518,21 +38538,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,255,83,0,0 // movaps 0x53ff(%rip),%xmm6 # 84b0 <_sk_clut_4D_sse41+0x1c12>
+ .byte 15,40,53,1,84,0,0 // movaps 0x5401(%rip),%xmm6 # 84b0 <_sk_clut_4D_sse41+0x1c14>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,21,84,0,0 // movaps 0x5415(%rip),%xmm7 # 84d0 <_sk_clut_4D_sse41+0x1c32>
+ .byte 15,40,61,23,84,0,0 // movaps 0x5417(%rip),%xmm7 # 84d0 <_sk_clut_4D_sse41+0x1c34>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,245,83,0,0 // movaps 0x53f5(%rip),%xmm4 # 84c0 <_sk_clut_4D_sse41+0x1c22>
+ .byte 15,40,37,247,83,0,0 // movaps 0x53f7(%rip),%xmm4 # 84c0 <_sk_clut_4D_sse41+0x1c24>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,7,84,0,0 // movaps 0x5407(%rip),%xmm15 # 84e0 <_sk_clut_4D_sse41+0x1c42>
+ .byte 68,15,40,61,9,84,0,0 // movaps 0x5409(%rip),%xmm15 # 84e0 <_sk_clut_4D_sse41+0x1c44>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,83,83,0,0 // mulps 0x5353(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba2>
+ .byte 15,89,5,85,83,0,0 // mulps 0x5355(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba4>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -38558,8 +38578,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,244,82,0,0 // mulps 0x52f4(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba2>
- .byte 15,84,29,253,82,0,0 // andps 0x52fd(%rip),%xmm3 # 8450 <_sk_clut_4D_sse41+0x1bb2>
+ .byte 15,89,5,246,82,0,0 // mulps 0x52f6(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba4>
+ .byte 15,84,29,255,82,0,0 // andps 0x52ff(%rip),%xmm3 # 8450 <_sk_clut_4D_sse41+0x1bb4>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -38577,7 +38597,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,85,83,0,0 // movaps 0x5355(%rip),%xmm0 # 84f0 <_sk_clut_4D_sse41+0x1c52>
+ .byte 15,40,5,87,83,0,0 // movaps 0x5357(%rip),%xmm0 # 84f0 <_sk_clut_4D_sse41+0x1c54>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -38597,29 +38617,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,37,83,0,0 // mulps 0x5325(%rip),%xmm8 # 8500 <_sk_clut_4D_sse41+0x1c62>
- .byte 68,15,40,13,45,83,0,0 // movaps 0x532d(%rip),%xmm9 # 8510 <_sk_clut_4D_sse41+0x1c72>
+ .byte 68,15,89,5,39,83,0,0 // mulps 0x5327(%rip),%xmm8 # 8500 <_sk_clut_4D_sse41+0x1c64>
+ .byte 68,15,40,13,47,83,0,0 // movaps 0x532f(%rip),%xmm9 # 8510 <_sk_clut_4D_sse41+0x1c74>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,50,83,0,0 // movaps 0x5332(%rip),%xmm0 # 8520 <_sk_clut_4D_sse41+0x1c82>
+ .byte 15,40,5,52,83,0,0 // movaps 0x5334(%rip),%xmm0 # 8520 <_sk_clut_4D_sse41+0x1c84>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,48,83,0,0 // addps 0x5330(%rip),%xmm8 # 8530 <_sk_clut_4D_sse41+0x1c92>
- .byte 68,15,89,5,56,83,0,0 // mulps 0x5338(%rip),%xmm8 # 8540 <_sk_clut_4D_sse41+0x1ca2>
- .byte 15,89,13,65,83,0,0 // mulps 0x5341(%rip),%xmm1 # 8550 <_sk_clut_4D_sse41+0x1cb2>
+ .byte 68,15,88,5,50,83,0,0 // addps 0x5332(%rip),%xmm8 # 8530 <_sk_clut_4D_sse41+0x1c94>
+ .byte 68,15,89,5,58,83,0,0 // mulps 0x533a(%rip),%xmm8 # 8540 <_sk_clut_4D_sse41+0x1ca4>
+ .byte 15,89,13,67,83,0,0 // mulps 0x5343(%rip),%xmm1 # 8550 <_sk_clut_4D_sse41+0x1cb4>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,70,83,0,0 // mulps 0x5346(%rip),%xmm2 # 8560 <_sk_clut_4D_sse41+0x1cc2>
+ .byte 15,89,21,72,83,0,0 // mulps 0x5348(%rip),%xmm2 # 8560 <_sk_clut_4D_sse41+0x1cc4>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,58,83,0,0 // movaps 0x533a(%rip),%xmm9 # 8570 <_sk_clut_4D_sse41+0x1cd2>
+ .byte 68,15,40,13,60,83,0,0 // movaps 0x533c(%rip),%xmm9 # 8570 <_sk_clut_4D_sse41+0x1cd4>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,58,83,0,0 // movaps 0x533a(%rip),%xmm2 # 8580 <_sk_clut_4D_sse41+0x1ce2>
+ .byte 15,40,21,60,83,0,0 // movaps 0x533c(%rip),%xmm2 # 8580 <_sk_clut_4D_sse41+0x1ce4>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,63,83,0,0 // movaps 0x533f(%rip),%xmm12 # 8590 <_sk_clut_4D_sse41+0x1cf2>
+ .byte 68,15,40,37,65,83,0,0 // movaps 0x5341(%rip),%xmm12 # 8590 <_sk_clut_4D_sse41+0x1cf4>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -38638,8 +38658,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,248,82,0,0 // mulps 0x52f8(%rip),%xmm1 # 85a0 <_sk_clut_4D_sse41+0x1d02>
- .byte 15,89,21,1,83,0,0 // mulps 0x5301(%rip),%xmm2 # 85b0 <_sk_clut_4D_sse41+0x1d12>
+ .byte 15,89,13,250,82,0,0 // mulps 0x52fa(%rip),%xmm1 # 85a0 <_sk_clut_4D_sse41+0x1d04>
+ .byte 15,89,21,3,83,0,0 // mulps 0x5303(%rip),%xmm2 # 85b0 <_sk_clut_4D_sse41+0x1d14>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -38656,11 +38676,11 @@ _sk_load_a8_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,39 // jne 32f9 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 32f7 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm0
- .byte 102,15,219,5,223,82,0,0 // pand 0x52df(%rip),%xmm0 # 85c0 <_sk_clut_4D_sse41+0x1d22>
+ .byte 102,15,219,5,225,82,0,0 // pand 0x52e1(%rip),%xmm0 # 85c0 <_sk_clut_4D_sse41+0x1d24>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,229,82,0,0 // mulps 0x52e5(%rip),%xmm3 # 85d0 <_sk_clut_4D_sse41+0x1d32>
+ .byte 15,89,29,231,82,0,0 // mulps 0x52e7(%rip),%xmm3 # 85d0 <_sk_clut_4D_sse41+0x1d34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38669,12 +38689,12 @@ _sk_load_a8_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 333b <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 3339 <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3325 <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 3323 <_sk_load_a8_sse41+0x6b>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,195 // jne 32d9 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 32d7 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38682,10 +38702,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 32d9 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 32d7 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 32d9 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 32d7 <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -38698,11 +38718,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,39 // jne 3385 <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 3383 <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,25 // pmovzxbd (%r9,%r11,1),%xmm4
- .byte 102,15,219,37,115,82,0,0 // pand 0x5273(%rip),%xmm4 # 85e0 <_sk_clut_4D_sse41+0x1d42>
+ .byte 102,15,219,37,117,82,0,0 // pand 0x5275(%rip),%xmm4 # 85e0 <_sk_clut_4D_sse41+0x1d44>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,121,82,0,0 // mulps 0x5279(%rip),%xmm7 # 85f0 <_sk_clut_4D_sse41+0x1d52>
+ .byte 15,89,61,123,82,0,0 // mulps 0x527b(%rip),%xmm7 # 85f0 <_sk_clut_4D_sse41+0x1d54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -38711,12 +38731,12 @@ _sk_load_a8_dst_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 33c7 <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 33c5 <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 33b1 <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 33af <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,195 // jne 3365 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 3363 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38724,10 +38744,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 3365 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 3363 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 3365 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 3363 <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -38756,7 +38776,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,190,81,0,0 // mulps 0x51be(%rip),%xmm3 # 8600 <_sk_clut_4D_sse41+0x1d62>
+ .byte 15,89,29,192,81,0,0 // mulps 0x51c0(%rip),%xmm3 # 8600 <_sk_clut_4D_sse41+0x1d64>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38774,13 +38794,13 @@ _sk_store_a8_sse41:
.byte 77,15,175,202 // imul %r10,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
- .byte 68,15,40,5,163,81,0,0 // movaps 0x51a3(%rip),%xmm8 # 8610 <_sk_clut_4D_sse41+0x1d72>
+ .byte 68,15,40,5,165,81,0,0 // movaps 0x51a5(%rip),%xmm8 # 8610 <_sk_clut_4D_sse41+0x1d74>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,13 // jne 3493 <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 3491 <_sk_store_a8_sse41+0x41>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,25 // mov %eax,(%r9,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38789,17 +38809,17 @@ _sk_store_a8_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,41 // je 34cf <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 34cd <_sk_store_a8_sse41+0x7d>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,15 // je 34bb <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 34b9 <_sk_store_a8_sse41+0x69>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,221 // jne 348f <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 348d <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,25,2,8 // pextrb $0x8,%xmm8,0x2(%r9,%r11,1)
- .byte 102,68,15,56,0,5,91,81,0,0 // pshufb 0x515b(%rip),%xmm8 # 8620 <_sk_clut_4D_sse41+0x1d82>
+ .byte 102,68,15,56,0,5,93,81,0,0 // pshufb 0x515d(%rip),%xmm8 # 8620 <_sk_clut_4D_sse41+0x1d84>
.byte 102,71,15,58,21,4,25,0 // pextrw $0x0,%xmm8,(%r9,%r11,1)
- .byte 235,192 // jmp 348f <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 348d <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,25,0 // pextrb $0x0,%xmm8,(%r9,%r11,1)
- .byte 235,182 // jmp 348f <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 348d <_sk_store_a8_sse41+0x3d>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -38812,25 +38832,25 @@ _sk_load_g8_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,42 // jne 351b <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 3519 <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm0
- .byte 102,15,219,5,48,81,0,0 // pand 0x5130(%rip),%xmm0 # 8630 <_sk_clut_4D_sse41+0x1d92>
+ .byte 102,15,219,5,50,81,0,0 // pand 0x5132(%rip),%xmm0 # 8630 <_sk_clut_4D_sse41+0x1d94>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,54,81,0,0 // mulps 0x5136(%rip),%xmm0 # 8640 <_sk_clut_4D_sse41+0x1da2>
+ .byte 15,89,5,56,81,0,0 // mulps 0x5138(%rip),%xmm0 # 8640 <_sk_clut_4D_sse41+0x1da4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,61,81,0,0 // movaps 0x513d(%rip),%xmm3 # 8650 <_sk_clut_4D_sse41+0x1db2>
+ .byte 15,40,29,63,81,0,0 // movaps 0x513f(%rip),%xmm3 # 8650 <_sk_clut_4D_sse41+0x1db4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 355d <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 355b <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3547 <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 3545 <_sk_load_g8_sse41+0x6e>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,192 // jne 34f8 <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 34f6 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38838,10 +38858,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 34f8 <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 34f6 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 34f8 <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 34f6 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -38854,25 +38874,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,42 // jne 35aa <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 35a8 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,25 // pmovzxbd (%r9,%r11,1),%xmm4
- .byte 102,15,219,37,209,80,0,0 // pand 0x50d1(%rip),%xmm4 # 8660 <_sk_clut_4D_sse41+0x1dc2>
+ .byte 102,15,219,37,211,80,0,0 // pand 0x50d3(%rip),%xmm4 # 8660 <_sk_clut_4D_sse41+0x1dc4>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,215,80,0,0 // mulps 0x50d7(%rip),%xmm4 # 8670 <_sk_clut_4D_sse41+0x1dd2>
+ .byte 15,89,37,217,80,0,0 // mulps 0x50d9(%rip),%xmm4 # 8670 <_sk_clut_4D_sse41+0x1dd4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,222,80,0,0 // movaps 0x50de(%rip),%xmm7 # 8680 <_sk_clut_4D_sse41+0x1de2>
+ .byte 15,40,61,224,80,0,0 // movaps 0x50e0(%rip),%xmm7 # 8680 <_sk_clut_4D_sse41+0x1de4>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 35ec <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 35ea <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 35d6 <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 35d4 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,192 // jne 3587 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 3585 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38880,10 +38900,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 3587 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 3585 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 3587 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 3585 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -38912,9 +38932,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,41,80,0,0 // mulps 0x5029(%rip),%xmm0 # 8690 <_sk_clut_4D_sse41+0x1df2>
+ .byte 15,89,5,43,80,0,0 // mulps 0x502b(%rip),%xmm0 # 8690 <_sk_clut_4D_sse41+0x1df4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,48,80,0,0 // movaps 0x5030(%rip),%xmm3 # 86a0 <_sk_clut_4D_sse41+0x1e02>
+ .byte 15,40,29,50,80,0,0 // movaps 0x5032(%rip),%xmm3 # 86a0 <_sk_clut_4D_sse41+0x1e04>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -38932,41 +38952,41 @@ _sk_load_565_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,80 // jne 36e4 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 36e2 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,89 // pmovzxwd (%r9,%r11,2),%xmm2
- .byte 102,15,111,5,13,80,0,0 // movdqa 0x500d(%rip),%xmm0 # 86b0 <_sk_clut_4D_sse41+0x1e12>
+ .byte 102,15,111,5,15,80,0,0 // movdqa 0x500f(%rip),%xmm0 # 86b0 <_sk_clut_4D_sse41+0x1e14>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,15,80,0,0 // mulps 0x500f(%rip),%xmm0 # 86c0 <_sk_clut_4D_sse41+0x1e22>
- .byte 102,15,111,13,23,80,0,0 // movdqa 0x5017(%rip),%xmm1 # 86d0 <_sk_clut_4D_sse41+0x1e32>
+ .byte 15,89,5,17,80,0,0 // mulps 0x5011(%rip),%xmm0 # 86c0 <_sk_clut_4D_sse41+0x1e24>
+ .byte 102,15,111,13,25,80,0,0 // movdqa 0x5019(%rip),%xmm1 # 86d0 <_sk_clut_4D_sse41+0x1e34>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,25,80,0,0 // mulps 0x5019(%rip),%xmm1 # 86e0 <_sk_clut_4D_sse41+0x1e42>
- .byte 102,15,219,21,33,80,0,0 // pand 0x5021(%rip),%xmm2 # 86f0 <_sk_clut_4D_sse41+0x1e52>
+ .byte 15,89,13,27,80,0,0 // mulps 0x501b(%rip),%xmm1 # 86e0 <_sk_clut_4D_sse41+0x1e44>
+ .byte 102,15,219,21,35,80,0,0 // pand 0x5023(%rip),%xmm2 # 86f0 <_sk_clut_4D_sse41+0x1e54>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,39,80,0,0 // mulps 0x5027(%rip),%xmm2 # 8700 <_sk_clut_4D_sse41+0x1e62>
+ .byte 15,89,21,41,80,0,0 // mulps 0x5029(%rip),%xmm2 # 8700 <_sk_clut_4D_sse41+0x1e64>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,46,80,0,0 // movaps 0x502e(%rip),%xmm3 # 8710 <_sk_clut_4D_sse41+0x1e72>
+ .byte 15,40,29,48,80,0,0 // movaps 0x5030(%rip),%xmm3 # 8710 <_sk_clut_4D_sse41+0x1e74>
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 3726 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 3724 <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3710 <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 370e <_sk_load_565_sse41+0x97>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,154 // jne 369b <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 3699 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 369b <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 3699 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 369b <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 3699 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -38980,41 +39000,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,80 // jne 379f <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 379d <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,89 // pmovzxwd (%r9,%r11,2),%xmm6
- .byte 102,15,111,37,194,79,0,0 // movdqa 0x4fc2(%rip),%xmm4 # 8720 <_sk_clut_4D_sse41+0x1e82>
+ .byte 102,15,111,37,196,79,0,0 // movdqa 0x4fc4(%rip),%xmm4 # 8720 <_sk_clut_4D_sse41+0x1e84>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,196,79,0,0 // mulps 0x4fc4(%rip),%xmm4 # 8730 <_sk_clut_4D_sse41+0x1e92>
- .byte 102,15,111,45,204,79,0,0 // movdqa 0x4fcc(%rip),%xmm5 # 8740 <_sk_clut_4D_sse41+0x1ea2>
+ .byte 15,89,37,198,79,0,0 // mulps 0x4fc6(%rip),%xmm4 # 8730 <_sk_clut_4D_sse41+0x1e94>
+ .byte 102,15,111,45,206,79,0,0 // movdqa 0x4fce(%rip),%xmm5 # 8740 <_sk_clut_4D_sse41+0x1ea4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,206,79,0,0 // mulps 0x4fce(%rip),%xmm5 # 8750 <_sk_clut_4D_sse41+0x1eb2>
- .byte 102,15,219,53,214,79,0,0 // pand 0x4fd6(%rip),%xmm6 # 8760 <_sk_clut_4D_sse41+0x1ec2>
+ .byte 15,89,45,208,79,0,0 // mulps 0x4fd0(%rip),%xmm5 # 8750 <_sk_clut_4D_sse41+0x1eb4>
+ .byte 102,15,219,53,216,79,0,0 // pand 0x4fd8(%rip),%xmm6 # 8760 <_sk_clut_4D_sse41+0x1ec4>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,220,79,0,0 // mulps 0x4fdc(%rip),%xmm6 # 8770 <_sk_clut_4D_sse41+0x1ed2>
+ .byte 15,89,53,222,79,0,0 // mulps 0x4fde(%rip),%xmm6 # 8770 <_sk_clut_4D_sse41+0x1ed4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,227,79,0,0 // movaps 0x4fe3(%rip),%xmm7 # 8780 <_sk_clut_4D_sse41+0x1ee2>
+ .byte 15,40,61,229,79,0,0 // movaps 0x4fe5(%rip),%xmm7 # 8780 <_sk_clut_4D_sse41+0x1ee4>
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 37e1 <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 37df <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 37cb <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 37c9 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,154 // jne 3756 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 3754 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 3756 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 3754 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 3756 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 3754 <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -39042,19 +39062,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,55,79,0,0 // movdqa 0x4f37(%rip),%xmm0 # 8790 <_sk_clut_4D_sse41+0x1ef2>
+ .byte 102,15,111,5,57,79,0,0 // movdqa 0x4f39(%rip),%xmm0 # 8790 <_sk_clut_4D_sse41+0x1ef4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,57,79,0,0 // mulps 0x4f39(%rip),%xmm0 # 87a0 <_sk_clut_4D_sse41+0x1f02>
- .byte 102,15,111,13,65,79,0,0 // movdqa 0x4f41(%rip),%xmm1 # 87b0 <_sk_clut_4D_sse41+0x1f12>
+ .byte 15,89,5,59,79,0,0 // mulps 0x4f3b(%rip),%xmm0 # 87a0 <_sk_clut_4D_sse41+0x1f04>
+ .byte 102,15,111,13,67,79,0,0 // movdqa 0x4f43(%rip),%xmm1 # 87b0 <_sk_clut_4D_sse41+0x1f14>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,67,79,0,0 // mulps 0x4f43(%rip),%xmm1 # 87c0 <_sk_clut_4D_sse41+0x1f22>
- .byte 102,15,219,21,75,79,0,0 // pand 0x4f4b(%rip),%xmm2 # 87d0 <_sk_clut_4D_sse41+0x1f32>
+ .byte 15,89,13,69,79,0,0 // mulps 0x4f45(%rip),%xmm1 # 87c0 <_sk_clut_4D_sse41+0x1f24>
+ .byte 102,15,219,21,77,79,0,0 // pand 0x4f4d(%rip),%xmm2 # 87d0 <_sk_clut_4D_sse41+0x1f34>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,81,79,0,0 // mulps 0x4f51(%rip),%xmm2 # 87e0 <_sk_clut_4D_sse41+0x1f42>
+ .byte 15,89,21,83,79,0,0 // mulps 0x4f53(%rip),%xmm2 # 87e0 <_sk_clut_4D_sse41+0x1f44>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,88,79,0,0 // movaps 0x4f58(%rip),%xmm3 # 87f0 <_sk_clut_4D_sse41+0x1f52>
+ .byte 15,40,29,90,79,0,0 // movaps 0x4f5a(%rip),%xmm3 # 87f0 <_sk_clut_4D_sse41+0x1f54>
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
@@ -39069,12 +39089,12 @@ _sk_store_565_sse41:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,71,79,0,0 // movaps 0x4f47(%rip),%xmm8 # 8800 <_sk_clut_4D_sse41+0x1f62>
+ .byte 68,15,40,5,73,79,0,0 // movaps 0x4f49(%rip),%xmm8 # 8800 <_sk_clut_4D_sse41+0x1f64>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,60,79,0,0 // movaps 0x4f3c(%rip),%xmm10 # 8810 <_sk_clut_4D_sse41+0x1f72>
+ .byte 68,15,40,21,62,79,0,0 // movaps 0x4f3e(%rip),%xmm10 # 8810 <_sk_clut_4D_sse41+0x1f74>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -39084,7 +39104,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 390b <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 3909 <_sk_store_565_sse41+0x70>
.byte 242,69,15,17,4,65 // movsd %xmm8,(%r9,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39092,17 +39112,17 @@ _sk_store_565_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,35 // je 3941 <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 393f <_sk_store_565_sse41+0xa6>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,15 // je 3933 <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 3931 <_sk_store_565_sse41+0x98>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,221 // jne 3907 <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 3905 <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,68,65,4,4 // pextrw $0x4,%xmm8,0x4(%r9,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,65 // movd %xmm8,(%r9,%rax,2)
- .byte 235,198 // jmp 3907 <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 3905 <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,4,65,0 // pextrw $0x0,%xmm8,(%r9,%rax,2)
- .byte 235,188 // jmp 3907 <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 3905 <_sk_store_565_sse41+0x6c>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -39116,44 +39136,44 @@ _sk_load_4444_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,95 // jne 39c5 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 39c3 <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,89 // pmovzxwd (%r9,%r11,2),%xmm3
- .byte 102,15,111,5,171,78,0,0 // movdqa 0x4eab(%rip),%xmm0 # 8820 <_sk_clut_4D_sse41+0x1f82>
+ .byte 102,15,111,5,173,78,0,0 // movdqa 0x4ead(%rip),%xmm0 # 8820 <_sk_clut_4D_sse41+0x1f84>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,173,78,0,0 // mulps 0x4ead(%rip),%xmm0 # 8830 <_sk_clut_4D_sse41+0x1f92>
- .byte 102,15,111,13,181,78,0,0 // movdqa 0x4eb5(%rip),%xmm1 # 8840 <_sk_clut_4D_sse41+0x1fa2>
+ .byte 15,89,5,175,78,0,0 // mulps 0x4eaf(%rip),%xmm0 # 8830 <_sk_clut_4D_sse41+0x1f94>
+ .byte 102,15,111,13,183,78,0,0 // movdqa 0x4eb7(%rip),%xmm1 # 8840 <_sk_clut_4D_sse41+0x1fa4>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,183,78,0,0 // mulps 0x4eb7(%rip),%xmm1 # 8850 <_sk_clut_4D_sse41+0x1fb2>
- .byte 102,15,111,21,191,78,0,0 // movdqa 0x4ebf(%rip),%xmm2 # 8860 <_sk_clut_4D_sse41+0x1fc2>
+ .byte 15,89,13,185,78,0,0 // mulps 0x4eb9(%rip),%xmm1 # 8850 <_sk_clut_4D_sse41+0x1fb4>
+ .byte 102,15,111,21,193,78,0,0 // movdqa 0x4ec1(%rip),%xmm2 # 8860 <_sk_clut_4D_sse41+0x1fc4>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,193,78,0,0 // mulps 0x4ec1(%rip),%xmm2 # 8870 <_sk_clut_4D_sse41+0x1fd2>
- .byte 102,15,219,29,201,78,0,0 // pand 0x4ec9(%rip),%xmm3 # 8880 <_sk_clut_4D_sse41+0x1fe2>
+ .byte 15,89,21,195,78,0,0 // mulps 0x4ec3(%rip),%xmm2 # 8870 <_sk_clut_4D_sse41+0x1fd4>
+ .byte 102,15,219,29,203,78,0,0 // pand 0x4ecb(%rip),%xmm3 # 8880 <_sk_clut_4D_sse41+0x1fe4>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,207,78,0,0 // mulps 0x4ecf(%rip),%xmm3 # 8890 <_sk_clut_4D_sse41+0x1ff2>
+ .byte 15,89,29,209,78,0,0 // mulps 0x4ed1(%rip),%xmm3 # 8890 <_sk_clut_4D_sse41+0x1ff4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 3a07 <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 3a05 <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 39f1 <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 39ef <_sk_load_4444_sse41+0xa6>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,139 // jne 396d <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 396b <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 396d <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 396b <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 396d <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 396b <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -39167,44 +39187,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,95 // jne 3a8f <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 3a8d <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,89 // pmovzxwd (%r9,%r11,2),%xmm7
- .byte 102,15,111,37,97,78,0,0 // movdqa 0x4e61(%rip),%xmm4 # 88a0 <_sk_clut_4D_sse41+0x2002>
+ .byte 102,15,111,37,99,78,0,0 // movdqa 0x4e63(%rip),%xmm4 # 88a0 <_sk_clut_4D_sse41+0x2004>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,99,78,0,0 // mulps 0x4e63(%rip),%xmm4 # 88b0 <_sk_clut_4D_sse41+0x2012>
- .byte 102,15,111,45,107,78,0,0 // movdqa 0x4e6b(%rip),%xmm5 # 88c0 <_sk_clut_4D_sse41+0x2022>
+ .byte 15,89,37,101,78,0,0 // mulps 0x4e65(%rip),%xmm4 # 88b0 <_sk_clut_4D_sse41+0x2014>
+ .byte 102,15,111,45,109,78,0,0 // movdqa 0x4e6d(%rip),%xmm5 # 88c0 <_sk_clut_4D_sse41+0x2024>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,109,78,0,0 // mulps 0x4e6d(%rip),%xmm5 # 88d0 <_sk_clut_4D_sse41+0x2032>
- .byte 102,15,111,53,117,78,0,0 // movdqa 0x4e75(%rip),%xmm6 # 88e0 <_sk_clut_4D_sse41+0x2042>
+ .byte 15,89,45,111,78,0,0 // mulps 0x4e6f(%rip),%xmm5 # 88d0 <_sk_clut_4D_sse41+0x2034>
+ .byte 102,15,111,53,119,78,0,0 // movdqa 0x4e77(%rip),%xmm6 # 88e0 <_sk_clut_4D_sse41+0x2044>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,119,78,0,0 // mulps 0x4e77(%rip),%xmm6 # 88f0 <_sk_clut_4D_sse41+0x2052>
- .byte 102,15,219,61,127,78,0,0 // pand 0x4e7f(%rip),%xmm7 # 8900 <_sk_clut_4D_sse41+0x2062>
+ .byte 15,89,53,121,78,0,0 // mulps 0x4e79(%rip),%xmm6 # 88f0 <_sk_clut_4D_sse41+0x2054>
+ .byte 102,15,219,61,129,78,0,0 // pand 0x4e81(%rip),%xmm7 # 8900 <_sk_clut_4D_sse41+0x2064>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,133,78,0,0 // mulps 0x4e85(%rip),%xmm7 # 8910 <_sk_clut_4D_sse41+0x2072>
+ .byte 15,89,61,135,78,0,0 // mulps 0x4e87(%rip),%xmm7 # 8910 <_sk_clut_4D_sse41+0x2074>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,53 // je 3ad1 <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 3acf <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3abb <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 3ab9 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,139 // jne 3a37 <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 3a35 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 3a37 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 3a35 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 3a37 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 3a35 <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -39232,21 +39252,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,215,77,0,0 // movdqa 0x4dd7(%rip),%xmm0 # 8920 <_sk_clut_4D_sse41+0x2082>
+ .byte 102,15,111,5,217,77,0,0 // movdqa 0x4dd9(%rip),%xmm0 # 8920 <_sk_clut_4D_sse41+0x2084>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,217,77,0,0 // mulps 0x4dd9(%rip),%xmm0 # 8930 <_sk_clut_4D_sse41+0x2092>
- .byte 102,15,111,13,225,77,0,0 // movdqa 0x4de1(%rip),%xmm1 # 8940 <_sk_clut_4D_sse41+0x20a2>
+ .byte 15,89,5,219,77,0,0 // mulps 0x4ddb(%rip),%xmm0 # 8930 <_sk_clut_4D_sse41+0x2094>
+ .byte 102,15,111,13,227,77,0,0 // movdqa 0x4de3(%rip),%xmm1 # 8940 <_sk_clut_4D_sse41+0x20a4>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,227,77,0,0 // mulps 0x4de3(%rip),%xmm1 # 8950 <_sk_clut_4D_sse41+0x20b2>
- .byte 102,15,111,21,235,77,0,0 // movdqa 0x4deb(%rip),%xmm2 # 8960 <_sk_clut_4D_sse41+0x20c2>
+ .byte 15,89,13,229,77,0,0 // mulps 0x4de5(%rip),%xmm1 # 8950 <_sk_clut_4D_sse41+0x20b4>
+ .byte 102,15,111,21,237,77,0,0 // movdqa 0x4ded(%rip),%xmm2 # 8960 <_sk_clut_4D_sse41+0x20c4>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,237,77,0,0 // mulps 0x4ded(%rip),%xmm2 # 8970 <_sk_clut_4D_sse41+0x20d2>
- .byte 102,15,219,29,245,77,0,0 // pand 0x4df5(%rip),%xmm3 # 8980 <_sk_clut_4D_sse41+0x20e2>
+ .byte 15,89,21,239,77,0,0 // mulps 0x4def(%rip),%xmm2 # 8970 <_sk_clut_4D_sse41+0x20d4>
+ .byte 102,15,219,29,247,77,0,0 // pand 0x4df7(%rip),%xmm3 # 8980 <_sk_clut_4D_sse41+0x20e4>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,251,77,0,0 // mulps 0x4dfb(%rip),%xmm3 # 8990 <_sk_clut_4D_sse41+0x20f2>
+ .byte 15,89,29,253,77,0,0 // mulps 0x4dfd(%rip),%xmm3 # 8990 <_sk_clut_4D_sse41+0x20f4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
@@ -39262,7 +39282,7 @@ _sk_store_4444_sse41:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,232,77,0,0 // movaps 0x4de8(%rip),%xmm8 # 89a0 <_sk_clut_4D_sse41+0x2102>
+ .byte 68,15,40,5,234,77,0,0 // movaps 0x4dea(%rip),%xmm8 # 89a0 <_sk_clut_4D_sse41+0x2104>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39282,7 +39302,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 3c1e <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 3c1c <_sk_store_4444_sse41+0x84>
.byte 242,69,15,17,4,65 // movsd %xmm8,(%r9,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39290,17 +39310,17 @@ _sk_store_4444_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,35 // je 3c54 <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 3c52 <_sk_store_4444_sse41+0xba>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,15 // je 3c46 <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 3c44 <_sk_store_4444_sse41+0xac>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,221 // jne 3c1a <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 3c18 <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,68,65,4,4 // pextrw $0x4,%xmm8,0x4(%r9,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,65 // movd %xmm8,(%r9,%rax,2)
- .byte 235,198 // jmp 3c1a <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 3c18 <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,4,65,0 // pextrw $0x0,%xmm8,(%r9,%rax,2)
- .byte 235,188 // jmp 3c1a <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 3c18 <_sk_store_4444_sse41+0x80>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -39314,19 +39334,19 @@ _sk_load_8888_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,89 // jne 3cd3 <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 3cd1 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,129 // movdqu (%r9,%rax,4),%xmm3
- .byte 102,15,111,5,40,77,0,0 // movdqa 0x4d28(%rip),%xmm0 # 89b0 <_sk_clut_4D_sse41+0x2112>
+ .byte 102,15,111,5,42,77,0,0 // movdqa 0x4d2a(%rip),%xmm0 # 89b0 <_sk_clut_4D_sse41+0x2114>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,41,77,0,0 // movaps 0x4d29(%rip),%xmm8 # 89c0 <_sk_clut_4D_sse41+0x2122>
+ .byte 68,15,40,5,43,77,0,0 // movaps 0x4d2b(%rip),%xmm8 # 89c0 <_sk_clut_4D_sse41+0x2124>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,40,77,0,0 // pshufb 0x4d28(%rip),%xmm1 # 89d0 <_sk_clut_4D_sse41+0x2132>
+ .byte 102,15,56,0,13,42,77,0,0 // pshufb 0x4d2a(%rip),%xmm1 # 89d0 <_sk_clut_4D_sse41+0x2134>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,36,77,0,0 // pshufb 0x4d24(%rip),%xmm2 # 89e0 <_sk_clut_4D_sse41+0x2142>
+ .byte 102,15,56,0,21,38,77,0,0 // pshufb 0x4d26(%rip),%xmm2 # 89e0 <_sk_clut_4D_sse41+0x2144>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -39337,19 +39357,19 @@ _sk_load_8888_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,45 // je 3d0d <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 3d0b <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 3cfc <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 3cfa <_sk_load_8888_sse41+0x9e>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,144 // jne 3c80 <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 3c7e <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,129 // movq (%r9,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 3c80 <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 3c7e <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,129 // movd (%r9,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 3c80 <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 3c7e <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -39363,19 +39383,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,89 // jne 3d8d <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 3d8b <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,129 // movdqu (%r9,%rax,4),%xmm7
- .byte 102,15,111,37,174,76,0,0 // movdqa 0x4cae(%rip),%xmm4 # 89f0 <_sk_clut_4D_sse41+0x2152>
+ .byte 102,15,111,37,176,76,0,0 // movdqa 0x4cb0(%rip),%xmm4 # 89f0 <_sk_clut_4D_sse41+0x2154>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,175,76,0,0 // movaps 0x4caf(%rip),%xmm8 # 8a00 <_sk_clut_4D_sse41+0x2162>
+ .byte 68,15,40,5,177,76,0,0 // movaps 0x4cb1(%rip),%xmm8 # 8a00 <_sk_clut_4D_sse41+0x2164>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,174,76,0,0 // pshufb 0x4cae(%rip),%xmm5 # 8a10 <_sk_clut_4D_sse41+0x2172>
+ .byte 102,15,56,0,45,176,76,0,0 // pshufb 0x4cb0(%rip),%xmm5 # 8a10 <_sk_clut_4D_sse41+0x2174>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,170,76,0,0 // pshufb 0x4caa(%rip),%xmm6 # 8a20 <_sk_clut_4D_sse41+0x2182>
+ .byte 102,15,56,0,53,172,76,0,0 // pshufb 0x4cac(%rip),%xmm6 # 8a20 <_sk_clut_4D_sse41+0x2184>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -39386,19 +39406,19 @@ _sk_load_8888_dst_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,45 // je 3dc7 <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 3dc5 <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 3db6 <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 3db4 <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,144 // jne 3d3a <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 3d38 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,129 // movq (%r9,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 3d3a <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 3d38 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,129 // movd (%r9,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 3d3a <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 3d38 <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -39423,17 +39443,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,129,1 // pinsrd $0x1,(%r9,%rax,4),%xmm3
.byte 102,65,15,58,34,28,153,2 // pinsrd $0x2,(%r9,%rbx,4),%xmm3
.byte 102,67,15,58,34,28,153,3 // pinsrd $0x3,(%r9,%r11,4),%xmm3
- .byte 102,15,111,5,253,75,0,0 // movdqa 0x4bfd(%rip),%xmm0 # 8a30 <_sk_clut_4D_sse41+0x2192>
+ .byte 102,15,111,5,255,75,0,0 // movdqa 0x4bff(%rip),%xmm0 # 8a30 <_sk_clut_4D_sse41+0x2194>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,254,75,0,0 // movaps 0x4bfe(%rip),%xmm8 # 8a40 <_sk_clut_4D_sse41+0x21a2>
+ .byte 68,15,40,5,0,76,0,0 // movaps 0x4c00(%rip),%xmm8 # 8a40 <_sk_clut_4D_sse41+0x21a4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,253,75,0,0 // pshufb 0x4bfd(%rip),%xmm1 # 8a50 <_sk_clut_4D_sse41+0x21b2>
+ .byte 102,15,56,0,13,255,75,0,0 // pshufb 0x4bff(%rip),%xmm1 # 8a50 <_sk_clut_4D_sse41+0x21b4>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,249,75,0,0 // pshufb 0x4bf9(%rip),%xmm2 # 8a60 <_sk_clut_4D_sse41+0x21c2>
+ .byte 102,15,56,0,21,251,75,0,0 // pshufb 0x4bfb(%rip),%xmm2 # 8a60 <_sk_clut_4D_sse41+0x21c4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -39454,7 +39474,7 @@ _sk_store_8888_sse41:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,210,75,0,0 // movaps 0x4bd2(%rip),%xmm8 # 8a70 <_sk_clut_4D_sse41+0x21d2>
+ .byte 68,15,40,5,212,75,0,0 // movaps 0x4bd4(%rip),%xmm8 # 8a70 <_sk_clut_4D_sse41+0x21d4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39473,23 +39493,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 3efe <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 3efc <_sk_store_8888_sse41+0x7f>
.byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,29 // je 3f28 <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 3f26 <_sk_store_8888_sse41+0xa9>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,15 // je 3f20 <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 3f1e <_sk_store_8888_sse41+0xa1>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,227 // jne 3efa <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 3ef8 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,58,22,68,129,8,2 // pextrd $0x2,%xmm8,0x8(%r9,%rax,4)
.byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4)
- .byte 235,210 // jmp 3efa <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 3ef8 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4)
- .byte 235,202 // jmp 3efa <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 3ef8 <_sk_store_8888_sse41+0x7b>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -39503,19 +39523,19 @@ _sk_load_bgra_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,89 // jne 3fa5 <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 3fa3 <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,129 // movdqu (%r9,%rax,4),%xmm3
- .byte 102,15,111,5,38,75,0,0 // movdqa 0x4b26(%rip),%xmm0 # 8a80 <_sk_clut_4D_sse41+0x21e2>
+ .byte 102,15,111,5,40,75,0,0 // movdqa 0x4b28(%rip),%xmm0 # 8a80 <_sk_clut_4D_sse41+0x21e4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,39,75,0,0 // movaps 0x4b27(%rip),%xmm8 # 8a90 <_sk_clut_4D_sse41+0x21f2>
+ .byte 68,15,40,5,41,75,0,0 // movaps 0x4b29(%rip),%xmm8 # 8a90 <_sk_clut_4D_sse41+0x21f4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,38,75,0,0 // pshufb 0x4b26(%rip),%xmm0 # 8aa0 <_sk_clut_4D_sse41+0x2202>
+ .byte 102,15,56,0,5,40,75,0,0 // pshufb 0x4b28(%rip),%xmm0 # 8aa0 <_sk_clut_4D_sse41+0x2204>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,34,75,0,0 // pshufb 0x4b22(%rip),%xmm0 # 8ab0 <_sk_clut_4D_sse41+0x2212>
+ .byte 102,15,56,0,5,36,75,0,0 // pshufb 0x4b24(%rip),%xmm0 # 8ab0 <_sk_clut_4D_sse41+0x2214>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -39526,19 +39546,19 @@ _sk_load_bgra_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,45 // je 3fdf <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 3fdd <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 3fce <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 3fcc <_sk_load_bgra_sse41+0x9e>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,144 // jne 3f52 <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 3f50 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,129 // movq (%r9,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 3f52 <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 3f50 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,129 // movd (%r9,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 3f52 <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 3f50 <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -39552,19 +39572,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,89 // jne 405f <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 405d <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,129 // movdqu (%r9,%rax,4),%xmm7
- .byte 102,15,111,37,172,74,0,0 // movdqa 0x4aac(%rip),%xmm4 # 8ac0 <_sk_clut_4D_sse41+0x2222>
+ .byte 102,15,111,37,174,74,0,0 // movdqa 0x4aae(%rip),%xmm4 # 8ac0 <_sk_clut_4D_sse41+0x2224>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,173,74,0,0 // movaps 0x4aad(%rip),%xmm8 # 8ad0 <_sk_clut_4D_sse41+0x2232>
+ .byte 68,15,40,5,175,74,0,0 // movaps 0x4aaf(%rip),%xmm8 # 8ad0 <_sk_clut_4D_sse41+0x2234>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,172,74,0,0 // pshufb 0x4aac(%rip),%xmm4 # 8ae0 <_sk_clut_4D_sse41+0x2242>
+ .byte 102,15,56,0,37,174,74,0,0 // pshufb 0x4aae(%rip),%xmm4 # 8ae0 <_sk_clut_4D_sse41+0x2244>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,168,74,0,0 // pshufb 0x4aa8(%rip),%xmm4 # 8af0 <_sk_clut_4D_sse41+0x2252>
+ .byte 102,15,56,0,37,170,74,0,0 // pshufb 0x4aaa(%rip),%xmm4 # 8af0 <_sk_clut_4D_sse41+0x2254>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -39575,19 +39595,19 @@ _sk_load_bgra_dst_sse41:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,45 // je 4099 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 4097 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 4088 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 4086 <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,144 // jne 400c <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 400a <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,129 // movq (%r9,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 400c <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 400a <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,129 // movd (%r9,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 400c <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 400a <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -39612,17 +39632,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,129,1 // pinsrd $0x1,(%r9,%rax,4),%xmm3
.byte 102,65,15,58,34,28,153,2 // pinsrd $0x2,(%r9,%rbx,4),%xmm3
.byte 102,67,15,58,34,28,153,3 // pinsrd $0x3,(%r9,%r11,4),%xmm3
- .byte 102,15,111,5,251,73,0,0 // movdqa 0x49fb(%rip),%xmm0 # 8b00 <_sk_clut_4D_sse41+0x2262>
+ .byte 102,15,111,5,253,73,0,0 // movdqa 0x49fd(%rip),%xmm0 # 8b00 <_sk_clut_4D_sse41+0x2264>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,252,73,0,0 // movaps 0x49fc(%rip),%xmm8 # 8b10 <_sk_clut_4D_sse41+0x2272>
+ .byte 68,15,40,5,254,73,0,0 // movaps 0x49fe(%rip),%xmm8 # 8b10 <_sk_clut_4D_sse41+0x2274>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,251,73,0,0 // pshufb 0x49fb(%rip),%xmm0 # 8b20 <_sk_clut_4D_sse41+0x2282>
+ .byte 102,15,56,0,5,253,73,0,0 // pshufb 0x49fd(%rip),%xmm0 # 8b20 <_sk_clut_4D_sse41+0x2284>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,247,73,0,0 // pshufb 0x49f7(%rip),%xmm0 # 8b30 <_sk_clut_4D_sse41+0x2292>
+ .byte 102,15,56,0,5,249,73,0,0 // pshufb 0x49f9(%rip),%xmm0 # 8b30 <_sk_clut_4D_sse41+0x2294>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -39643,7 +39663,7 @@ _sk_store_bgra_sse41:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,208,73,0,0 // movaps 0x49d0(%rip),%xmm8 # 8b40 <_sk_clut_4D_sse41+0x22a2>
+ .byte 68,15,40,5,210,73,0,0 // movaps 0x49d2(%rip),%xmm8 # 8b40 <_sk_clut_4D_sse41+0x22a4>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39662,23 +39682,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 41d0 <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 41ce <_sk_store_bgra_sse41+0x7f>
.byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,29 // je 41fa <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 41f8 <_sk_store_bgra_sse41+0xa9>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,15 // je 41f2 <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 41f0 <_sk_store_bgra_sse41+0xa1>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,227 // jne 41cc <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 41ca <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,58,22,68,129,8,2 // pextrd $0x2,%xmm8,0x8(%r9,%rax,4)
.byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4)
- .byte 235,210 // jmp 41cc <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 41ca <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4)
- .byte 235,202 // jmp 41cc <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 41ca <_sk_store_bgra_sse41+0x7b>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -39692,7 +39712,7 @@ _sk_load_f16_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,62,1,0,0 // jne 4360 <_sk_load_f16_sse41+0x15e>
+ .byte 15,133,62,1,0,0 // jne 435e <_sk_load_f16_sse41+0x15e>
.byte 102,65,15,16,4,193 // movupd (%r9,%rax,8),%xmm0
.byte 243,65,15,111,76,193,16 // movdqu 0x10(%r9,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -39702,18 +39722,18 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,216 // punpcklwd %xmm0,%xmm11
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1
- .byte 102,68,15,111,5,245,72,0,0 // movdqa 0x48f5(%rip),%xmm8 # 8b50 <_sk_clut_4D_sse41+0x22b2>
+ .byte 102,68,15,111,5,247,72,0,0 // movdqa 0x48f7(%rip),%xmm8 # 8b50 <_sk_clut_4D_sse41+0x22b4>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,239,202 // pxor %xmm2,%xmm1
- .byte 102,15,111,29,240,72,0,0 // movdqa 0x48f0(%rip),%xmm3 # 8b60 <_sk_clut_4D_sse41+0x22c2>
+ .byte 102,15,111,29,242,72,0,0 // movdqa 0x48f2(%rip),%xmm3 # 8b60 <_sk_clut_4D_sse41+0x22c4>
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,68,15,111,21,220,72,0,0 // movdqa 0x48dc(%rip),%xmm10 # 8b70 <_sk_clut_4D_sse41+0x22d2>
+ .byte 102,68,15,111,21,222,72,0,0 // movdqa 0x48de(%rip),%xmm10 # 8b70 <_sk_clut_4D_sse41+0x22d4>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,219,193 // pand %xmm1,%xmm0
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -39756,16 +39776,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,193 // movsd (%r9,%rax,8),%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,13 // jne 4379 <_sk_load_f16_sse41+0x177>
+ .byte 117,13 // jne 4377 <_sk_load_f16_sse41+0x177>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,182,254,255,255 // jmpq 422f <_sk_load_f16_sse41+0x2d>
+ .byte 233,182,254,255,255 // jmpq 422d <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,193,8 // movhpd 0x8(%r9,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,161,254,255,255 // jb 422f <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,161,254,255,255 // jb 422d <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,193,16 // movq 0x10(%r9,%rax,8),%xmm1
- .byte 233,149,254,255,255 // jmpq 422f <_sk_load_f16_sse41+0x2d>
+ .byte 233,149,254,255,255 // jmpq 422d <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -39779,7 +39799,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,62,1,0,0 // jne 44f8 <_sk_load_f16_dst_sse41+0x15e>
+ .byte 15,133,62,1,0,0 // jne 44f6 <_sk_load_f16_dst_sse41+0x15e>
.byte 102,65,15,16,36,193 // movupd (%r9,%rax,8),%xmm4
.byte 243,65,15,111,108,193,16 // movdqu 0x10(%r9,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -39789,18 +39809,18 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,220 // punpcklwd %xmm4,%xmm11
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,235 // pmovzxwd %xmm11,%xmm5
- .byte 102,68,15,111,5,141,71,0,0 // movdqa 0x478d(%rip),%xmm8 # 8b80 <_sk_clut_4D_sse41+0x22e2>
+ .byte 102,68,15,111,5,143,71,0,0 // movdqa 0x478f(%rip),%xmm8 # 8b80 <_sk_clut_4D_sse41+0x22e4>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,240 // pand %xmm8,%xmm6
.byte 102,15,239,238 // pxor %xmm6,%xmm5
- .byte 102,15,111,61,136,71,0,0 // movdqa 0x4788(%rip),%xmm7 # 8b90 <_sk_clut_4D_sse41+0x22f2>
+ .byte 102,15,111,61,138,71,0,0 // movdqa 0x478a(%rip),%xmm7 # 8b90 <_sk_clut_4D_sse41+0x22f4>
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,229 // pcmpeqd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,68,15,111,21,116,71,0,0 // movdqa 0x4774(%rip),%xmm10 # 8ba0 <_sk_clut_4D_sse41+0x2302>
+ .byte 102,68,15,111,21,118,71,0,0 // movdqa 0x4776(%rip),%xmm10 # 8ba0 <_sk_clut_4D_sse41+0x2304>
.byte 102,65,15,254,234 // paddd %xmm10,%xmm5
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -39843,16 +39863,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,193 // movsd (%r9,%rax,8),%xmm4
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,13 // jne 4511 <_sk_load_f16_dst_sse41+0x177>
+ .byte 117,13 // jne 450f <_sk_load_f16_dst_sse41+0x177>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,182,254,255,255 // jmpq 43c7 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,182,254,255,255 // jmpq 43c5 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,193,8 // movhpd 0x8(%r9,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,161,254,255,255 // jb 43c7 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,161,254,255,255 // jb 43c5 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,193,16 // movq 0x10(%r9,%rax,8),%xmm5
- .byte 233,149,254,255,255 // jmpq 43c7 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,149,254,255,255 // jmpq 43c5 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -39886,18 +39906,18 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,218 // punpcklwd %xmm2,%xmm11
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1
- .byte 102,68,15,111,5,247,69,0,0 // movdqa 0x45f7(%rip),%xmm8 # 8bb0 <_sk_clut_4D_sse41+0x2312>
+ .byte 102,68,15,111,5,249,69,0,0 // movdqa 0x45f9(%rip),%xmm8 # 8bb0 <_sk_clut_4D_sse41+0x2314>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,239,202 // pxor %xmm2,%xmm1
- .byte 102,15,111,29,242,69,0,0 // movdqa 0x45f2(%rip),%xmm3 # 8bc0 <_sk_clut_4D_sse41+0x2322>
+ .byte 102,15,111,29,244,69,0,0 // movdqa 0x45f4(%rip),%xmm3 # 8bc0 <_sk_clut_4D_sse41+0x2324>
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,68,15,111,21,222,69,0,0 // movdqa 0x45de(%rip),%xmm10 # 8bd0 <_sk_clut_4D_sse41+0x2332>
+ .byte 102,68,15,111,21,224,69,0,0 // movdqa 0x45e0(%rip),%xmm10 # 8bd0 <_sk_clut_4D_sse41+0x2334>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,219,193 // pand %xmm1,%xmm0
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -39951,17 +39971,17 @@ _sk_store_f16_sse41:
.byte 73,193,225,3 // shl $0x3,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,21,1,69,0,0 // movdqa 0x4501(%rip),%xmm10 # 8be0 <_sk_clut_4D_sse41+0x2342>
+ .byte 102,68,15,111,21,3,69,0,0 // movdqa 0x4503(%rip),%xmm10 # 8be0 <_sk_clut_4D_sse41+0x2344>
.byte 102,68,15,111,216 // movdqa %xmm0,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,239,235 // pxor %xmm11,%xmm13
- .byte 102,68,15,111,13,244,68,0,0 // movdqa 0x44f4(%rip),%xmm9 # 8bf0 <_sk_clut_4D_sse41+0x2352>
+ .byte 102,68,15,111,13,246,68,0,0 // movdqa 0x44f6(%rip),%xmm9 # 8bf0 <_sk_clut_4D_sse41+0x2354>
.byte 102,65,15,114,211,16 // psrld $0x10,%xmm11
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,69,15,102,197 // pcmpgtd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
- .byte 102,68,15,111,37,229,68,0,0 // movdqa 0x44e5(%rip),%xmm12 # 8c00 <_sk_clut_4D_sse41+0x2362>
+ .byte 102,68,15,111,37,231,68,0,0 // movdqa 0x44e7(%rip),%xmm12 # 8c00 <_sk_clut_4D_sse41+0x2364>
.byte 102,69,15,235,220 // por %xmm12,%xmm11
.byte 102,69,15,254,221 // paddd %xmm13,%xmm11
.byte 102,69,15,223,195 // pandn %xmm11,%xmm8
@@ -40005,7 +40025,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,203 // punpckldq %xmm11,%xmm9
.byte 77,133,192 // test %r8,%r8
- .byte 117,21 // jne 4811 <_sk_store_f16_sse41+0x152>
+ .byte 117,21 // jne 480f <_sk_store_f16_sse41+0x152>
.byte 69,15,17,12,193 // movups %xmm9,(%r9,%rax,8)
.byte 102,69,15,106,195 // punpckhdq %xmm11,%xmm8
.byte 243,69,15,127,68,193,16 // movdqu %xmm8,0x10(%r9,%rax,8)
@@ -40013,13 +40033,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,193 // movq %xmm9,(%r9,%rax,8)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 480d <_sk_store_f16_sse41+0x14e>
+ .byte 116,240 // je 480b <_sk_store_f16_sse41+0x14e>
.byte 102,69,15,23,76,193,8 // movhpd %xmm9,0x8(%r9,%rax,8)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 480d <_sk_store_f16_sse41+0x14e>
+ .byte 114,227 // jb 480b <_sk_store_f16_sse41+0x14e>
.byte 102,69,15,106,195 // punpckhdq %xmm11,%xmm8
.byte 102,69,15,214,68,193,16 // movq %xmm8,0x10(%r9,%rax,8)
- .byte 235,213 // jmp 480d <_sk_store_f16_sse41+0x14e>
+ .byte 235,213 // jmp 480b <_sk_store_f16_sse41+0x14e>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -40034,7 +40054,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,185,0,0,0 // jne 4918 <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 4916 <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,65 // movupd (%r9,%rax,2),%xmm0
.byte 243,65,15,111,76,65,16 // movdqu 0x10(%r9,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -40050,7 +40070,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,101,67,0,0 // movaps 0x4365(%rip),%xmm8 # 8c10 <_sk_clut_4D_sse41+0x2372>
+ .byte 68,15,40,5,103,67,0,0 // movaps 0x4367(%rip),%xmm8 # 8c10 <_sk_clut_4D_sse41+0x2374>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40078,16 +40098,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,65 // movsd (%r9,%rax,2),%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,13 // jne 4931 <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 492f <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 486c <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 486a <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,65,8 // movhpd 0x8(%r9,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,38,255,255,255 // jb 486c <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 486a <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,65,16 // movq 0x10(%r9,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 486c <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 486a <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -40104,7 +40124,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,170,0,0,0 // jne 4a27 <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 4a25 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,65 // movdqu (%r9,%rax,2),%xmm2
.byte 243,65,15,111,92,65,8 // movdqu 0x8(%r9,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -40124,7 +40144,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,68,66,0,0 // movaps 0x4244(%rip),%xmm8 # 8c20 <_sk_clut_4D_sse41+0x2382>
+ .byte 68,15,40,5,70,66,0,0 // movaps 0x4246(%rip),%xmm8 # 8c20 <_sk_clut_4D_sse41+0x2384>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40141,27 +40161,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,11,66,0,0 // movaps 0x420b(%rip),%xmm3 # 8c30 <_sk_clut_4D_sse41+0x2392>
+ .byte 15,40,29,13,66,0,0 // movaps 0x420d(%rip),%xmm3 # 8c30 <_sk_clut_4D_sse41+0x2394>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,65 // movd (%r9,%rax,2),%xmm2
.byte 102,65,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,13 // jne 4a4c <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 4a4a <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 49a1 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 499f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,65,6 // movd 0x6(%r9,%rax,2),%xmm0
.byte 102,65,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,24 // jb 4a7d <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 4a7b <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,65,12 // movd 0xc(%r9,%rax,2),%xmm3
.byte 102,65,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,36,255,255,255 // jmpq 49a1 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 499f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 49a1 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 499f <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -40175,7 +40195,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
- .byte 68,15,40,21,148,65,0,0 // movaps 0x4194(%rip),%xmm10 # 8c40 <_sk_clut_4D_sse41+0x23a2>
+ .byte 68,15,40,21,150,65,0,0 // movaps 0x4196(%rip),%xmm10 # 8c40 <_sk_clut_4D_sse41+0x23a4>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -40212,7 +40232,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 77,133,192 // test %r8,%r8
- .byte 117,21 // jne 4b7a <_sk_store_u16_be_sse41+0xf4>
+ .byte 117,21 // jne 4b78 <_sk_store_u16_be_sse41+0xf4>
.byte 69,15,17,20,65 // movups %xmm10,(%r9,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%rax,2)
@@ -40220,13 +40240,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,65 // movq %xmm10,(%r9,%rax,2)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 4b76 <_sk_store_u16_be_sse41+0xf0>
+ .byte 116,240 // je 4b74 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,23,84,65,8 // movhpd %xmm10,0x8(%r9,%rax,2)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 4b76 <_sk_store_u16_be_sse41+0xf0>
+ .byte 114,227 // jb 4b74 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,65,16 // movq %xmm8,0x10(%r9,%rax,2)
- .byte 235,213 // jmp 4b76 <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 4b74 <_sk_store_u16_be_sse41+0xf0>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -40242,7 +40262,7 @@ _sk_load_f32_sse41:
.byte 73,99,194 // movslq %r10d,%rax
.byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,66 // jne 4c0c <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 4c0a <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0
.byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3
.byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9
@@ -40262,17 +40282,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,8 // jne 4c1e <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 4c1c <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 4bdc <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 4bda <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,8 // jb 4c32 <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 4c30 <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3
- .byte 235,170 // jmp 4bdc <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 4bda <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 4bdc <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 4bda <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -40288,7 +40308,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,194 // movslq %r10d,%rax
.byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,66 // jne 4ca2 <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 4ca0 <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4
.byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7
.byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9
@@ -40308,17 +40328,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,8 // jne 4cb4 <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 4cb2 <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 4c72 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 4c70 <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,8 // jb 4cc8 <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 4cc6 <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7
- .byte 235,170 // jmp 4c72 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 4c70 <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 4c72 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 4c70 <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -40347,7 +40367,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,129 // movupd %xmm12,(%r9,%rax,4)
.byte 77,133,192 // test %r8,%r8
- .byte 117,29 // jne 4d4a <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 4d48 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4)
.byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4)
@@ -40355,12 +40375,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,246 // je 4d46 <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 4d44 <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,234 // jb 4d46 <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 4d44 <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4)
- .byte 235,225 // jmp 4d46 <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 4d44 <_sk_store_f32_sse41+0x79>
HIDDEN _sk_clamp_x_sse41
.globl _sk_clamp_x_sse41
@@ -40450,7 +40470,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,206,66,0,0 // mulss 0x42ce(%rip),%xmm9 # 9140 <_sk_clut_4D_sse41+0x28a2>
+ .byte 243,68,15,89,13,208,66,0,0 // mulss 0x42d0(%rip),%xmm9 # 9140 <_sk_clut_4D_sse41+0x28a4>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -40481,7 +40501,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,96,66,0,0 // mulss 0x4260(%rip),%xmm9 # 9144 <_sk_clut_4D_sse41+0x28a6>
+ .byte 243,68,15,89,13,98,66,0,0 // mulss 0x4262(%rip),%xmm9 # 9144 <_sk_clut_4D_sse41+0x28a8>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -40506,7 +40526,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,23,61,0,0 // minps 0x3d17(%rip),%xmm8 # 8c50 <_sk_clut_4D_sse41+0x23b2>
+ .byte 68,15,93,5,25,61,0,0 // minps 0x3d19(%rip),%xmm8 # 8c50 <_sk_clut_4D_sse41+0x23b4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -40524,9 +40544,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,8,61,0,0 // movaps 0x3d08(%rip),%xmm8 # 8c60 <_sk_clut_4D_sse41+0x23c2>
+ .byte 68,15,40,5,10,61,0,0 // movaps 0x3d0a(%rip),%xmm8 # 8c60 <_sk_clut_4D_sse41+0x23c4>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,12,61,0,0 // movaps 0x3d0c(%rip),%xmm9 # 8c70 <_sk_clut_4D_sse41+0x23d2>
+ .byte 68,15,40,13,14,61,0,0 // movaps 0x3d0e(%rip),%xmm9 # 8c70 <_sk_clut_4D_sse41+0x23d4>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -40543,10 +40563,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,235,60,0,0 // mulps 0x3ceb(%rip),%xmm0 # 8c80 <_sk_clut_4D_sse41+0x23e2>
- .byte 15,89,13,244,60,0,0 // mulps 0x3cf4(%rip),%xmm1 # 8c90 <_sk_clut_4D_sse41+0x23f2>
+ .byte 15,89,5,237,60,0,0 // mulps 0x3ced(%rip),%xmm0 # 8c80 <_sk_clut_4D_sse41+0x23e4>
+ .byte 15,89,13,246,60,0,0 // mulps 0x3cf6(%rip),%xmm1 # 8c90 <_sk_clut_4D_sse41+0x23f4>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,250,60,0,0 // mulps 0x3cfa(%rip),%xmm3 # 8ca0 <_sk_clut_4D_sse41+0x2402>
+ .byte 15,89,29,252,60,0,0 // mulps 0x3cfc(%rip),%xmm3 # 8ca0 <_sk_clut_4D_sse41+0x2404>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -40859,9 +40879,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 5448 <_sk_evenly_spaced_gradient_sse41+0x1a>
+ .byte 120,7 // js 5446 <_sk_evenly_spaced_gradient_sse41+0x1a>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 545d <_sk_evenly_spaced_gradient_sse41+0x2f>
+ .byte 235,21 // jmp 545b <_sk_evenly_spaced_gradient_sse41+0x2f>
.byte 73,137,217 // mov %rbx,%r9
.byte 73,209,233 // shr %r9
.byte 131,227,1 // and $0x1,%ebx
@@ -40951,15 +40971,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,165,54,0,0 // movaps 0x36a5(%rip),%xmm0 # 8cb0 <_sk_clut_4D_sse41+0x2412>
+ .byte 15,40,5,167,54,0,0 // movaps 0x36a7(%rip),%xmm0 # 8cb0 <_sk_clut_4D_sse41+0x2414>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,171,54,0,0 // addps 0x36ab(%rip),%xmm0 # 8cc0 <_sk_clut_4D_sse41+0x2422>
+ .byte 15,88,5,173,54,0,0 // addps 0x36ad(%rip),%xmm0 # 8cc0 <_sk_clut_4D_sse41+0x2424>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,177,54,0,0 // addps 0x36b1(%rip),%xmm0 # 8cd0 <_sk_clut_4D_sse41+0x2432>
+ .byte 15,88,5,179,54,0,0 // addps 0x36b3(%rip),%xmm0 # 8cd0 <_sk_clut_4D_sse41+0x2434>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,183,54,0,0 // addps 0x36b7(%rip),%xmm0 # 8ce0 <_sk_clut_4D_sse41+0x2442>
+ .byte 15,88,5,185,54,0,0 // addps 0x36b9(%rip),%xmm0 # 8ce0 <_sk_clut_4D_sse41+0x2444>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,189,54,0,0 // addps 0x36bd(%rip),%xmm0 # 8cf0 <_sk_clut_4D_sse41+0x2452>
+ .byte 15,88,5,191,54,0,0 // addps 0x36bf(%rip),%xmm0 # 8cf0 <_sk_clut_4D_sse41+0x2454>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -40977,12 +40997,12 @@ _sk_gradient_sse41:
.byte 76,139,8 // mov (%rax),%r9
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,249,2 // cmp $0x2,%r9
- .byte 114,50 // jb 5686 <_sk_gradient_sse41+0x46>
+ .byte 114,50 // jb 5684 <_sk_gradient_sse41+0x46>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,201 // dec %r9
.byte 72,131,195,4 // add $0x4,%rbx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,40,21,150,54,0,0 // movaps 0x3696(%rip),%xmm2 # 8d00 <_sk_clut_4D_sse41+0x2462>
+ .byte 15,40,21,152,54,0,0 // movaps 0x3698(%rip),%xmm2 # 8d00 <_sk_clut_4D_sse41+0x2464>
.byte 243,15,16,27 // movss (%rbx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
@@ -40990,7 +41010,7 @@ _sk_gradient_sse41:
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,201 // dec %r9
- .byte 117,228 // jne 566a <_sk_gradient_sse41+0x2a>
+ .byte 117,228 // jne 5668 <_sk_gradient_sse41+0x2a>
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 73,193,233,32 // shr $0x20,%r9
@@ -41120,26 +41140,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,55,52,0,0 // movaps 0x3437(%rip),%xmm10 # 8d10 <_sk_clut_4D_sse41+0x2472>
+ .byte 68,15,40,21,57,52,0,0 // movaps 0x3439(%rip),%xmm10 # 8d10 <_sk_clut_4D_sse41+0x2474>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,59,52,0,0 // addps 0x343b(%rip),%xmm10 # 8d20 <_sk_clut_4D_sse41+0x2482>
+ .byte 68,15,88,21,61,52,0,0 // addps 0x343d(%rip),%xmm10 # 8d20 <_sk_clut_4D_sse41+0x2484>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,63,52,0,0 // addps 0x343f(%rip),%xmm10 # 8d30 <_sk_clut_4D_sse41+0x2492>
+ .byte 68,15,88,21,65,52,0,0 // addps 0x3441(%rip),%xmm10 # 8d30 <_sk_clut_4D_sse41+0x2494>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,67,52,0,0 // addps 0x3443(%rip),%xmm10 # 8d40 <_sk_clut_4D_sse41+0x24a2>
+ .byte 68,15,88,21,69,52,0,0 // addps 0x3445(%rip),%xmm10 # 8d40 <_sk_clut_4D_sse41+0x24a4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,66,52,0,0 // movaps 0x3442(%rip),%xmm11 # 8d50 <_sk_clut_4D_sse41+0x24b2>
+ .byte 68,15,40,29,68,52,0,0 // movaps 0x3444(%rip),%xmm11 # 8d50 <_sk_clut_4D_sse41+0x24b4>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,59,52,0,0 // movaps 0x343b(%rip),%xmm11 # 8d60 <_sk_clut_4D_sse41+0x24c2>
+ .byte 68,15,40,29,61,52,0,0 // movaps 0x343d(%rip),%xmm11 # 8d60 <_sk_clut_4D_sse41+0x24c4>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,45,52,0,0 // movaps 0x342d(%rip),%xmm9 # 8d70 <_sk_clut_4D_sse41+0x24d2>
+ .byte 68,15,40,13,47,52,0,0 // movaps 0x342f(%rip),%xmm9 # 8d70 <_sk_clut_4D_sse41+0x24d4>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -41173,7 +41193,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,214,51,0,0 // mulps 0x33d6(%rip),%xmm9 # 8d80 <_sk_clut_4D_sse41+0x24e2>
+ .byte 68,15,89,13,216,51,0,0 // mulps 0x33d8(%rip),%xmm9 # 8d80 <_sk_clut_4D_sse41+0x24e4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41181,7 +41201,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,193,51,0,0 // mulps 0x33c1(%rip),%xmm10 # 8d90 <_sk_clut_4D_sse41+0x24f2>
+ .byte 68,15,89,21,195,51,0,0 // mulps 0x33c3(%rip),%xmm10 # 8d90 <_sk_clut_4D_sse41+0x24f4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41190,8 +41210,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,169,51,0,0 // xorps 0x33a9(%rip),%xmm9 # 8da0 <_sk_clut_4D_sse41+0x2502>
- .byte 68,15,89,5,177,51,0,0 // mulps 0x33b1(%rip),%xmm8 # 8db0 <_sk_clut_4D_sse41+0x2512>
+ .byte 68,15,87,13,171,51,0,0 // xorps 0x33ab(%rip),%xmm9 # 8da0 <_sk_clut_4D_sse41+0x2504>
+ .byte 68,15,89,5,179,51,0,0 // mulps 0x33b3(%rip),%xmm8 # 8db0 <_sk_clut_4D_sse41+0x2514>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41212,7 +41232,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,120,51,0,0 // mulps 0x3378(%rip),%xmm9 # 8dc0 <_sk_clut_4D_sse41+0x2522>
+ .byte 68,15,89,13,122,51,0,0 // mulps 0x337a(%rip),%xmm9 # 8dc0 <_sk_clut_4D_sse41+0x2524>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41220,7 +41240,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,99,51,0,0 // mulps 0x3363(%rip),%xmm10 # 8dd0 <_sk_clut_4D_sse41+0x2532>
+ .byte 68,15,89,21,101,51,0,0 // mulps 0x3365(%rip),%xmm10 # 8dd0 <_sk_clut_4D_sse41+0x2534>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41229,8 +41249,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,75,51,0,0 // xorps 0x334b(%rip),%xmm9 # 8de0 <_sk_clut_4D_sse41+0x2542>
- .byte 68,15,89,5,83,51,0,0 // mulps 0x3353(%rip),%xmm8 # 8df0 <_sk_clut_4D_sse41+0x2552>
+ .byte 68,15,87,13,77,51,0,0 // xorps 0x334d(%rip),%xmm9 # 8de0 <_sk_clut_4D_sse41+0x2544>
+ .byte 68,15,89,5,85,51,0,0 // mulps 0x3355(%rip),%xmm8 # 8df0 <_sk_clut_4D_sse41+0x2554>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41248,7 +41268,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,43,51,0,0 // mulps 0x332b(%rip),%xmm9 # 8e00 <_sk_clut_4D_sse41+0x2562>
+ .byte 68,15,89,13,45,51,0,0 // mulps 0x332d(%rip),%xmm9 # 8e00 <_sk_clut_4D_sse41+0x2564>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -41256,7 +41276,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,23,51,0,0 // xorps 0x3317(%rip),%xmm0 # 8e10 <_sk_clut_4D_sse41+0x2572>
+ .byte 15,87,5,25,51,0,0 // xorps 0x3319(%rip),%xmm0 # 8e10 <_sk_clut_4D_sse41+0x2574>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41299,7 +41319,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,189,50,0,0 // movaps 0x32bd(%rip),%xmm8 # 8e20 <_sk_clut_4D_sse41+0x2582>
+ .byte 68,15,40,5,191,50,0,0 // movaps 0x32bf(%rip),%xmm8 # 8e20 <_sk_clut_4D_sse41+0x2584>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41343,8 +41363,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,63,50,0,0 // addps 0x323f(%rip),%xmm0 # 8e30 <_sk_clut_4D_sse41+0x2592>
- .byte 68,15,40,13,71,50,0,0 // movaps 0x3247(%rip),%xmm9 # 8e40 <_sk_clut_4D_sse41+0x25a2>
+ .byte 15,88,5,65,50,0,0 // addps 0x3241(%rip),%xmm0 # 8e30 <_sk_clut_4D_sse41+0x2594>
+ .byte 68,15,40,13,73,50,0,0 // movaps 0x3249(%rip),%xmm9 # 8e40 <_sk_clut_4D_sse41+0x25a4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41357,7 +41377,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,54,50,0,0 // addps 0x3236(%rip),%xmm0 # 8e50 <_sk_clut_4D_sse41+0x25b2>
+ .byte 15,88,5,56,50,0,0 // addps 0x3238(%rip),%xmm0 # 8e50 <_sk_clut_4D_sse41+0x25b4>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41369,8 +41389,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,40,50,0,0 // addps 0x3228(%rip),%xmm1 # 8e60 <_sk_clut_4D_sse41+0x25c2>
- .byte 68,15,40,13,48,50,0,0 // movaps 0x3230(%rip),%xmm9 # 8e70 <_sk_clut_4D_sse41+0x25d2>
+ .byte 15,88,13,42,50,0,0 // addps 0x322a(%rip),%xmm1 # 8e60 <_sk_clut_4D_sse41+0x25c4>
+ .byte 68,15,40,13,50,50,0,0 // movaps 0x3232(%rip),%xmm9 # 8e70 <_sk_clut_4D_sse41+0x25d4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41383,7 +41403,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,30,50,0,0 // addps 0x321e(%rip),%xmm1 # 8e80 <_sk_clut_4D_sse41+0x25e2>
+ .byte 15,88,13,32,50,0,0 // addps 0x3220(%rip),%xmm1 # 8e80 <_sk_clut_4D_sse41+0x25e4>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41395,13 +41415,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,17,50,0,0 // addps 0x3211(%rip),%xmm0 # 8e90 <_sk_clut_4D_sse41+0x25f2>
- .byte 68,15,40,13,25,50,0,0 // movaps 0x3219(%rip),%xmm9 # 8ea0 <_sk_clut_4D_sse41+0x2602>
+ .byte 15,88,5,19,50,0,0 // addps 0x3213(%rip),%xmm0 # 8e90 <_sk_clut_4D_sse41+0x25f4>
+ .byte 68,15,40,13,27,50,0,0 // movaps 0x321b(%rip),%xmm9 # 8ea0 <_sk_clut_4D_sse41+0x2604>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,21,50,0,0 // mulps 0x3215(%rip),%xmm9 # 8eb0 <_sk_clut_4D_sse41+0x2612>
- .byte 68,15,88,13,29,50,0,0 // addps 0x321d(%rip),%xmm9 # 8ec0 <_sk_clut_4D_sse41+0x2622>
+ .byte 68,15,89,13,23,50,0,0 // mulps 0x3217(%rip),%xmm9 # 8eb0 <_sk_clut_4D_sse41+0x2614>
+ .byte 68,15,88,13,31,50,0,0 // addps 0x321f(%rip),%xmm9 # 8ec0 <_sk_clut_4D_sse41+0x2624>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41414,16 +41434,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,12,50,0,0 // addps 0x320c(%rip),%xmm0 # 8ed0 <_sk_clut_4D_sse41+0x2632>
- .byte 68,15,40,13,20,50,0,0 // movaps 0x3214(%rip),%xmm9 # 8ee0 <_sk_clut_4D_sse41+0x2642>
+ .byte 15,88,5,14,50,0,0 // addps 0x320e(%rip),%xmm0 # 8ed0 <_sk_clut_4D_sse41+0x2634>
+ .byte 68,15,40,13,22,50,0,0 // movaps 0x3216(%rip),%xmm9 # 8ee0 <_sk_clut_4D_sse41+0x2644>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,24,50,0,0 // movaps 0x3218(%rip),%xmm8 # 8ef0 <_sk_clut_4D_sse41+0x2652>
+ .byte 68,15,40,5,26,50,0,0 // movaps 0x321a(%rip),%xmm8 # 8ef0 <_sk_clut_4D_sse41+0x2654>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,28,50,0,0 // addps 0x321c(%rip),%xmm8 # 8f00 <_sk_clut_4D_sse41+0x2662>
+ .byte 68,15,88,5,30,50,0,0 // addps 0x321e(%rip),%xmm8 # 8f00 <_sk_clut_4D_sse41+0x2664>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,32,50,0,0 // addps 0x3220(%rip),%xmm8 # 8f10 <_sk_clut_4D_sse41+0x2672>
+ .byte 68,15,88,5,34,50,0,0 // addps 0x3222(%rip),%xmm8 # 8f10 <_sk_clut_4D_sse41+0x2674>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,36,50,0,0 // addps 0x3224(%rip),%xmm8 # 8f20 <_sk_clut_4D_sse41+0x2682>
+ .byte 68,15,88,5,38,50,0,0 // addps 0x3226(%rip),%xmm8 # 8f20 <_sk_clut_4D_sse41+0x2684>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41433,17 +41453,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,30,50,0,0 // movaps 0x321e(%rip),%xmm8 # 8f30 <_sk_clut_4D_sse41+0x2692>
+ .byte 68,15,40,5,32,50,0,0 // movaps 0x3220(%rip),%xmm8 # 8f30 <_sk_clut_4D_sse41+0x2694>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,26,50,0,0 // movaps 0x321a(%rip),%xmm10 # 8f40 <_sk_clut_4D_sse41+0x26a2>
+ .byte 68,15,40,21,28,50,0,0 // movaps 0x321c(%rip),%xmm10 # 8f40 <_sk_clut_4D_sse41+0x26a4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,30,50,0,0 // addps 0x321e(%rip),%xmm10 # 8f50 <_sk_clut_4D_sse41+0x26b2>
+ .byte 68,15,88,21,32,50,0,0 // addps 0x3220(%rip),%xmm10 # 8f50 <_sk_clut_4D_sse41+0x26b4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,26,50,0,0 // addps 0x321a(%rip),%xmm10 # 8f60 <_sk_clut_4D_sse41+0x26c2>
+ .byte 68,15,88,21,28,50,0,0 // addps 0x321c(%rip),%xmm10 # 8f60 <_sk_clut_4D_sse41+0x26c4>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41455,11 +41475,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,13,50,0,0 // addps 0x320d(%rip),%xmm0 # 8f70 <_sk_clut_4D_sse41+0x26d2>
+ .byte 15,88,5,15,50,0,0 // addps 0x320f(%rip),%xmm0 # 8f70 <_sk_clut_4D_sse41+0x26d4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,13,50,0,0 // mulps 0x320d(%rip),%xmm8 # 8f80 <_sk_clut_4D_sse41+0x26e2>
- .byte 68,15,88,5,21,50,0,0 // addps 0x3215(%rip),%xmm8 # 8f90 <_sk_clut_4D_sse41+0x26f2>
+ .byte 68,15,89,5,15,50,0,0 // mulps 0x320f(%rip),%xmm8 # 8f80 <_sk_clut_4D_sse41+0x26e4>
+ .byte 68,15,88,5,23,50,0,0 // addps 0x3217(%rip),%xmm8 # 8f90 <_sk_clut_4D_sse41+0x26f4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41472,13 +41492,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,3,50,0,0 // addps 0x3203(%rip),%xmm1 # 8fa0 <_sk_clut_4D_sse41+0x2702>
- .byte 68,15,40,13,11,50,0,0 // movaps 0x320b(%rip),%xmm9 # 8fb0 <_sk_clut_4D_sse41+0x2712>
+ .byte 15,88,13,5,50,0,0 // addps 0x3205(%rip),%xmm1 # 8fa0 <_sk_clut_4D_sse41+0x2704>
+ .byte 68,15,40,13,13,50,0,0 // movaps 0x320d(%rip),%xmm9 # 8fb0 <_sk_clut_4D_sse41+0x2714>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,7,50,0,0 // mulps 0x3207(%rip),%xmm9 # 8fc0 <_sk_clut_4D_sse41+0x2722>
- .byte 68,15,88,13,15,50,0,0 // addps 0x320f(%rip),%xmm9 # 8fd0 <_sk_clut_4D_sse41+0x2732>
+ .byte 68,15,89,13,9,50,0,0 // mulps 0x3209(%rip),%xmm9 # 8fc0 <_sk_clut_4D_sse41+0x2724>
+ .byte 68,15,88,13,17,50,0,0 // addps 0x3211(%rip),%xmm9 # 8fd0 <_sk_clut_4D_sse41+0x2734>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41491,16 +41511,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,253,49,0,0 // addps 0x31fd(%rip),%xmm1 # 8fe0 <_sk_clut_4D_sse41+0x2742>
- .byte 68,15,40,13,5,50,0,0 // movaps 0x3205(%rip),%xmm9 # 8ff0 <_sk_clut_4D_sse41+0x2752>
+ .byte 15,88,13,255,49,0,0 // addps 0x31ff(%rip),%xmm1 # 8fe0 <_sk_clut_4D_sse41+0x2744>
+ .byte 68,15,40,13,7,50,0,0 // movaps 0x3207(%rip),%xmm9 # 8ff0 <_sk_clut_4D_sse41+0x2754>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,9,50,0,0 // movaps 0x3209(%rip),%xmm8 # 9000 <_sk_clut_4D_sse41+0x2762>
+ .byte 68,15,40,5,11,50,0,0 // movaps 0x320b(%rip),%xmm8 # 9000 <_sk_clut_4D_sse41+0x2764>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,13,50,0,0 // addps 0x320d(%rip),%xmm8 # 9010 <_sk_clut_4D_sse41+0x2772>
+ .byte 68,15,88,5,15,50,0,0 // addps 0x320f(%rip),%xmm8 # 9010 <_sk_clut_4D_sse41+0x2774>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,17,50,0,0 // addps 0x3211(%rip),%xmm8 # 9020 <_sk_clut_4D_sse41+0x2782>
+ .byte 68,15,88,5,19,50,0,0 // addps 0x3213(%rip),%xmm8 # 9020 <_sk_clut_4D_sse41+0x2784>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,21,50,0,0 // addps 0x3215(%rip),%xmm8 # 9030 <_sk_clut_4D_sse41+0x2792>
+ .byte 68,15,88,5,23,50,0,0 // addps 0x3217(%rip),%xmm8 # 9030 <_sk_clut_4D_sse41+0x2794>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41510,17 +41530,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,15,50,0,0 // movaps 0x320f(%rip),%xmm8 # 9040 <_sk_clut_4D_sse41+0x27a2>
+ .byte 68,15,40,5,17,50,0,0 // movaps 0x3211(%rip),%xmm8 # 9040 <_sk_clut_4D_sse41+0x27a4>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,10,50,0,0 // movaps 0x320a(%rip),%xmm10 # 9050 <_sk_clut_4D_sse41+0x27b2>
+ .byte 68,15,40,21,12,50,0,0 // movaps 0x320c(%rip),%xmm10 # 9050 <_sk_clut_4D_sse41+0x27b4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,14,50,0,0 // addps 0x320e(%rip),%xmm10 # 9060 <_sk_clut_4D_sse41+0x27c2>
+ .byte 68,15,88,21,16,50,0,0 // addps 0x3210(%rip),%xmm10 # 9060 <_sk_clut_4D_sse41+0x27c4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,10,50,0,0 // addps 0x320a(%rip),%xmm10 # 9070 <_sk_clut_4D_sse41+0x27d2>
+ .byte 68,15,88,21,12,50,0,0 // addps 0x320c(%rip),%xmm10 # 9070 <_sk_clut_4D_sse41+0x27d4>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41532,11 +41552,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,252,49,0,0 // addps 0x31fc(%rip),%xmm1 # 9080 <_sk_clut_4D_sse41+0x27e2>
+ .byte 15,88,13,254,49,0,0 // addps 0x31fe(%rip),%xmm1 # 9080 <_sk_clut_4D_sse41+0x27e4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,252,49,0,0 // mulps 0x31fc(%rip),%xmm8 # 9090 <_sk_clut_4D_sse41+0x27f2>
- .byte 68,15,88,5,4,50,0,0 // addps 0x3204(%rip),%xmm8 # 90a0 <_sk_clut_4D_sse41+0x2802>
+ .byte 68,15,89,5,254,49,0,0 // mulps 0x31fe(%rip),%xmm8 # 9090 <_sk_clut_4D_sse41+0x27f4>
+ .byte 68,15,88,5,6,50,0,0 // addps 0x3206(%rip),%xmm8 # 90a0 <_sk_clut_4D_sse41+0x2804>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41683,10 +41703,10 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,227 // pmulld %xmm3,%xmm12
.byte 102,65,15,111,212 // movdqa %xmm12,%xmm2
.byte 102,15,254,209 // paddd %xmm1,%xmm2
- .byte 102,15,111,37,45,48,0,0 // movdqa 0x302d(%rip),%xmm4 # 90c0 <_sk_clut_4D_sse41+0x2822>
+ .byte 102,15,111,37,47,48,0,0 // movdqa 0x302f(%rip),%xmm4 # 90c0 <_sk_clut_4D_sse41+0x2824>
.byte 102,15,56,64,212 // pmulld %xmm4,%xmm2
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
- .byte 102,68,15,111,61,42,48,0,0 // movdqa 0x302a(%rip),%xmm15 # 90d0 <_sk_clut_4D_sse41+0x2832>
+ .byte 102,68,15,111,61,44,48,0,0 // movdqa 0x302c(%rip),%xmm15 # 90d0 <_sk_clut_4D_sse41+0x2834>
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,65,15,254,231 // paddd %xmm15,%xmm4
.byte 102,73,15,58,22,225,1 // pextrq $0x1,%xmm4,%r9
@@ -41706,7 +41726,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,210,1 // pextrd $0x1,%xmm2,%r10d
.byte 102,65,15,58,22,211,2 // pextrd $0x2,%xmm2,%r11d
.byte 102,65,15,58,22,214,3 // pextrd $0x3,%xmm2,%r14d
- .byte 102,68,15,111,13,204,47,0,0 // movdqa 0x2fcc(%rip),%xmm9 # 90e0 <_sk_clut_4D_sse41+0x2842>
+ .byte 102,68,15,111,13,206,47,0,0 // movdqa 0x2fce(%rip),%xmm9 # 90e0 <_sk_clut_4D_sse41+0x2844>
.byte 102,65,15,254,209 // paddd %xmm9,%xmm2
.byte 102,73,15,58,22,215,1 // pextrq $0x1,%xmm2,%r15
.byte 102,72,15,126,211 // movq %xmm2,%rbx
@@ -41720,7 +41740,7 @@ _sk_clut_3D_sse41:
.byte 73,193,239,32 // shr $0x20,%r15
.byte 243,66,15,16,20,184 // movss (%rax,%r15,4),%xmm2
.byte 102,15,58,33,242,48 // insertps $0x30,%xmm2,%xmm6
- .byte 15,40,45,81,47,0,0 // movaps 0x2f51(%rip),%xmm5 # 90b0 <_sk_clut_4D_sse41+0x2812>
+ .byte 15,40,45,83,47,0,0 // movaps 0x2f53(%rip),%xmm5 # 90b0 <_sk_clut_4D_sse41+0x2814>
.byte 68,15,88,197 // addps %xmm5,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 15,40,215 // movaps %xmm7,%xmm2
@@ -41889,7 +41909,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,232 // paddd %xmm0,%xmm13
.byte 102,65,15,111,212 // movdqa %xmm12,%xmm2
.byte 102,65,15,254,213 // paddd %xmm13,%xmm2
- .byte 102,15,111,45,16,44,0,0 // movdqa 0x2c10(%rip),%xmm5 # 90c0 <_sk_clut_4D_sse41+0x2822>
+ .byte 102,15,111,45,18,44,0,0 // movdqa 0x2c12(%rip),%xmm5 # 90c0 <_sk_clut_4D_sse41+0x2824>
.byte 102,15,56,64,213 // pmulld %xmm5,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
@@ -41995,7 +42015,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,225,1 // pextrd $0x1,%xmm12,%r9d
.byte 102,69,15,58,22,226,2 // pextrd $0x2,%xmm12,%r10d
.byte 102,69,15,58,22,227,3 // pextrd $0x3,%xmm12,%r11d
- .byte 102,15,111,21,4,42,0,0 // movdqa 0x2a04(%rip),%xmm2 # 90e0 <_sk_clut_4D_sse41+0x2842>
+ .byte 102,15,111,21,6,42,0,0 // movdqa 0x2a06(%rip),%xmm2 # 90e0 <_sk_clut_4D_sse41+0x2844>
.byte 102,68,15,254,226 // paddd %xmm2,%xmm12
.byte 102,76,15,58,22,225,1 // pextrq $0x1,%xmm12,%rcx
.byte 102,76,15,126,226 // movq %xmm12,%rdx
@@ -42174,8 +42194,8 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,197 // movdqa %xmm13,%xmm0
.byte 102,68,15,127,108,36,176 // movdqa %xmm13,-0x50(%rsp)
.byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,56,64,5,29,39,0,0 // pmulld 0x271d(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2862>
- .byte 102,68,15,111,29,36,39,0,0 // movdqa 0x2724(%rip),%xmm11 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,15,56,64,5,31,39,0,0 // pmulld 0x271f(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2864>
+ .byte 102,68,15,111,29,38,39,0,0 // movdqa 0x2726(%rip),%xmm11 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,73,15,58,22,209,1 // pextrq $0x1,%xmm2,%r9
@@ -42195,7 +42215,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,194,1 // pextrd $0x1,%xmm0,%r10d
.byte 102,65,15,58,22,195,2 // pextrd $0x2,%xmm0,%r11d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,68,15,111,5,198,38,0,0 // movdqa 0x26c6(%rip),%xmm8 # 9120 <_sk_clut_4D_sse41+0x2882>
+ .byte 102,68,15,111,5,200,38,0,0 // movdqa 0x26c8(%rip),%xmm8 # 9120 <_sk_clut_4D_sse41+0x2884>
.byte 102,65,15,254,192 // paddd %xmm8,%xmm0
.byte 102,73,15,58,22,199,1 // pextrq $0x1,%xmm0,%r15
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -42209,7 +42229,7 @@ _sk_clut_4D_sse41:
.byte 73,193,239,32 // shr $0x20,%r15
.byte 243,66,15,16,4,184 // movss (%rax,%r15,4),%xmm0
.byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5
- .byte 15,40,53,75,38,0,0 // movaps 0x264b(%rip),%xmm6 # 90f0 <_sk_clut_4D_sse41+0x2852>
+ .byte 15,40,53,77,38,0,0 // movaps 0x264d(%rip),%xmm6 # 90f0 <_sk_clut_4D_sse41+0x2854>
.byte 68,15,88,214 // addps %xmm6,%xmm10
.byte 68,15,41,84,36,48 // movaps %xmm10,0x30(%rsp)
.byte 15,88,254 // addps %xmm6,%xmm7
@@ -42222,7 +42242,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,206 // paddd %xmm6,%xmm1
.byte 102,68,15,111,214 // movdqa %xmm6,%xmm10
.byte 102,68,15,127,84,36,160 // movdqa %xmm10,-0x60(%rsp)
- .byte 102,15,56,64,13,28,38,0,0 // pmulld 0x261c(%rip),%xmm1 # 9100 <_sk_clut_4D_sse41+0x2862>
+ .byte 102,15,56,64,13,30,38,0,0 // pmulld 0x261e(%rip),%xmm1 # 9100 <_sk_clut_4D_sse41+0x2864>
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,65,15,254,227 // paddd %xmm11,%xmm4
.byte 102,73,15,58,22,231,1 // pextrq $0x1,%xmm4,%r15
@@ -42280,11 +42300,11 @@ _sk_clut_4D_sse41:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
- .byte 102,15,111,5,240,36,0,0 // movdqa 0x24f0(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2862>
+ .byte 102,15,111,5,242,36,0,0 // movdqa 0x24f2(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2864>
.byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,68,15,111,5,233,36,0,0 // movdqa 0x24e9(%rip),%xmm8 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,68,15,111,5,235,36,0,0 // movdqa 0x24eb(%rip),%xmm8 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,65,15,254,192 // paddd %xmm8,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
@@ -42386,7 +42406,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,68,15,111,108,36,176 // movdqa -0x50(%rsp),%xmm13
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
- .byte 102,15,111,45,197,34,0,0 // movdqa 0x22c5(%rip),%xmm5 # 9100 <_sk_clut_4D_sse41+0x2862>
+ .byte 102,15,111,45,199,34,0,0 // movdqa 0x22c7(%rip),%xmm5 # 9100 <_sk_clut_4D_sse41+0x2864>
.byte 102,15,56,64,205 // pmulld %xmm5,%xmm1
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,58,22,202,1 // pextrd $0x1,%xmm1,%edx
@@ -42398,7 +42418,7 @@ _sk_clut_4D_sse41:
.byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2
.byte 102,15,58,33,242,48 // insertps $0x30,%xmm2,%xmm6
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,111,29,144,34,0,0 // movdqa 0x2290(%rip),%xmm3 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,15,111,29,146,34,0,0 // movdqa 0x2292(%rip),%xmm3 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,210 // movq %xmm2,%rdx
@@ -42446,7 +42466,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,194,1 // pextrd $0x1,%xmm0,%r10d
.byte 102,65,15,58,22,198,2 // pextrd $0x2,%xmm0,%r14d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,174,33,0,0 // paddd 0x21ae(%rip),%xmm0 # 9120 <_sk_clut_4D_sse41+0x2882>
+ .byte 102,15,254,5,176,33,0,0 // paddd 0x21b0(%rip),%xmm0 # 9120 <_sk_clut_4D_sse41+0x2884>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
.byte 137,211 // mov %edx,%ebx
@@ -42475,10 +42495,10 @@ _sk_clut_4D_sse41:
.byte 102,15,254,100,36,144 // paddd -0x70(%rsp),%xmm4
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
- .byte 102,68,15,111,45,0,33,0,0 // movdqa 0x2100(%rip),%xmm13 # 9100 <_sk_clut_4D_sse41+0x2862>
+ .byte 102,68,15,111,45,2,33,0,0 // movdqa 0x2102(%rip),%xmm13 # 9100 <_sk_clut_4D_sse41+0x2864>
.byte 102,65,15,56,64,197 // pmulld %xmm13,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,53,254,32,0,0 // movdqa 0x20fe(%rip),%xmm6 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,15,111,53,0,33,0,0 // movdqa 0x2100(%rip),%xmm6 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,15,254,206 // paddd %xmm6,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,202 // movq %xmm1,%rdx
@@ -42496,7 +42516,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,174,32,0,0 // movdqa 0x20ae(%rip),%xmm7 # 9120 <_sk_clut_4D_sse41+0x2882>
+ .byte 102,15,111,61,176,32,0,0 // movdqa 0x20b0(%rip),%xmm7 # 9120 <_sk_clut_4D_sse41+0x2884>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
@@ -42513,7 +42533,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,227 // paddd %xmm11,%xmm4
.byte 102,65,15,56,64,229 // pmulld %xmm13,%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,68,15,111,45,72,32,0,0 // movdqa 0x2048(%rip),%xmm13 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,68,15,111,45,74,32,0,0 // movdqa 0x204a(%rip),%xmm13 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,65,15,254,245 // paddd %xmm13,%xmm6
.byte 102,72,15,58,22,241,1 // pextrq $0x1,%xmm6,%rcx
.byte 102,72,15,126,242 // movq %xmm6,%rdx
@@ -42592,7 +42612,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,76,36,176 // movdqa -0x50(%rsp),%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 102,15,111,29,184,30,0,0 // movdqa 0x1eb8(%rip),%xmm3 # 9100 <_sk_clut_4D_sse41+0x2862>
+ .byte 102,15,111,29,186,30,0,0 // movdqa 0x1eba(%rip),%xmm3 # 9100 <_sk_clut_4D_sse41+0x2864>
.byte 102,15,56,64,195 // pmulld %xmm3,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,111,213 // movdqa %xmm13,%xmm10
@@ -42613,7 +42633,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,45,105,30,0,0 // movdqa 0x1e69(%rip),%xmm5 # 9120 <_sk_clut_4D_sse41+0x2882>
+ .byte 102,15,111,45,107,30,0,0 // movdqa 0x1e6b(%rip),%xmm5 # 9120 <_sk_clut_4D_sse41+0x2884>
.byte 102,15,254,197 // paddd %xmm5,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
@@ -42701,7 +42721,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,225,1 // pextrd $0x1,%xmm4,%r9d
.byte 102,65,15,58,22,226,2 // pextrd $0x2,%xmm4,%r10d
.byte 102,65,15,58,22,227,3 // pextrd $0x3,%xmm4,%r11d
- .byte 102,68,15,111,13,165,28,0,0 // movdqa 0x1ca5(%rip),%xmm9 # 9120 <_sk_clut_4D_sse41+0x2882>
+ .byte 102,68,15,111,13,167,28,0,0 // movdqa 0x1ca7(%rip),%xmm9 # 9120 <_sk_clut_4D_sse41+0x2884>
.byte 102,65,15,254,225 // paddd %xmm9,%xmm4
.byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx
.byte 102,72,15,126,226 // movq %xmm4,%rdx
@@ -42783,7 +42803,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,76,36,176 // paddd -0x50(%rsp),%xmm1
.byte 102,65,15,56,64,205 // pmulld %xmm13,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,68,15,111,37,238,26,0,0 // movdqa 0x1aee(%rip),%xmm12 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,68,15,111,37,240,26,0,0 // movdqa 0x1af0(%rip),%xmm12 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
@@ -42801,7 +42821,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,157,26,0,0 // movdqa 0x1a9d(%rip),%xmm3 # 9120 <_sk_clut_4D_sse41+0x2882>
+ .byte 102,15,111,29,159,26,0,0 // movdqa 0x1a9f(%rip),%xmm3 # 9120 <_sk_clut_4D_sse41+0x2884>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,202 // movq %xmm1,%rdx
@@ -42870,9 +42890,9 @@ _sk_clut_4D_sse41:
.byte 102,68,15,254,116,36,144 // paddd -0x70(%rsp),%xmm14
.byte 102,15,111,68,36,176 // movdqa -0x50(%rsp),%xmm0
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
- .byte 102,15,56,64,5,14,25,0,0 // pmulld 0x190e(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2862>
+ .byte 102,15,56,64,5,16,25,0,0 // pmulld 0x1910(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2864>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,254,5,18,25,0,0 // paddd 0x1912(%rip),%xmm0 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,15,254,5,20,25,0,0 // paddd 0x1914(%rip),%xmm0 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
.byte 137,213 // mov %edx,%ebp
@@ -42905,8 +42925,8 @@ _sk_clut_4D_sse41:
.byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
.byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5
.byte 102,68,15,254,116,36,160 // paddd -0x60(%rsp),%xmm14
- .byte 102,68,15,56,64,53,87,24,0,0 // pmulld 0x1857(%rip),%xmm14 # 9100 <_sk_clut_4D_sse41+0x2862>
- .byte 102,15,111,5,95,24,0,0 // movdqa 0x185f(%rip),%xmm0 # 9110 <_sk_clut_4D_sse41+0x2872>
+ .byte 102,68,15,56,64,53,89,24,0,0 // pmulld 0x1859(%rip),%xmm14 # 9100 <_sk_clut_4D_sse41+0x2864>
+ .byte 102,15,111,5,97,24,0,0 // movdqa 0x1861(%rip),%xmm0 # 9110 <_sk_clut_4D_sse41+0x2874>
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,194 // movq %xmm0,%rdx
@@ -42987,7 +43007,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,215 // addps %xmm7,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,16,23,0,0 // movaps 0x1710(%rip),%xmm3 # 9130 <_sk_clut_4D_sse41+0x2892>
+ .byte 15,40,29,18,23,0,0 // movaps 0x1712(%rip),%xmm3 # 9130 <_sk_clut_4D_sse41+0x2894>
.byte 76,137,194 // mov %r8,%rdx
.byte 72,139,76,36,240 // mov -0x10(%rsp),%rcx
.byte 76,139,68,36,248 // mov -0x8(%rsp),%r8
@@ -43298,10 +43318,10 @@ BALIGN16
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007d38 <_sk_clut_4D_sse41+0xa00149a>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007d38 <_sk_clut_4D_sse41+0xa00149c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3007d40 <_sk_clut_4D_sse41+0x30014a2>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3007d40 <_sk_clut_4D_sse41+0x30014a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -43651,10 +43671,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a008048 <_sk_clut_4D_sse41+0xa0017aa>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a008048 <_sk_clut_4D_sse41+0xa0017ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008050 <_sk_clut_4D_sse41+0x30017b2>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008050 <_sk_clut_4D_sse41+0x30017b4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -43769,7 +43789,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3c14a <_sk_clut_4D_sse41+0xffffffffe9a358ac>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3c14a <_sk_clut_4D_sse41+0xffffffffe9a358ae>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -43865,7 +43885,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3c21a <_sk_clut_4D_sse41+0xffffffffe9a3597c>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3c21a <_sk_clut_4D_sse41+0xffffffffe9a3597e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -43961,7 +43981,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3c2ea <_sk_clut_4D_sse41+0xffffffffe9a35a4c>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3c2ea <_sk_clut_4D_sse41+0xffffffffe9a35a4e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -44057,7 +44077,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3c3ba <_sk_clut_4D_sse41+0xffffffffe9a35b1c>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3c3ba <_sk_clut_4D_sse41+0xffffffffe9a35b1e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -44153,7 +44173,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3c48a <_sk_clut_4D_sse41+0xffffffffe9a35bec>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3c48a <_sk_clut_4D_sse41+0xffffffffe9a35bee>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -44662,7 +44682,7 @@ BALIGN16
.byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30089e0 <_sk_clut_4D_sse41+0x3002142>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30089e0 <_sk_clut_4D_sse41+0x3002144>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -44689,7 +44709,7 @@ BALIGN16
.byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008a20 <_sk_clut_4D_sse41+0x3002182>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008a20 <_sk_clut_4D_sse41+0x3002184>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -44716,7 +44736,7 @@ BALIGN16
.byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008a60 <_sk_clut_4D_sse41+0x30021c2>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008a60 <_sk_clut_4D_sse41+0x30021c4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -44750,7 +44770,7 @@ BALIGN16
.byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008ab0 <_sk_clut_4D_sse41+0x3002212>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008ab0 <_sk_clut_4D_sse41+0x3002214>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -44777,7 +44797,7 @@ BALIGN16
.byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008af0 <_sk_clut_4D_sse41+0x3002252>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008af0 <_sk_clut_4D_sse41+0x3002254>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -44804,7 +44824,7 @@ BALIGN16
.byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008b30 <_sk_clut_4D_sse41+0x3002292>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008b30 <_sk_clut_4D_sse41+0x3002294>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -44970,7 +44990,7 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc09dca <_sk_clut_4D_sse41+0x2dc0352c>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc09dca <_sk_clut_4D_sse41+0x2dc0352e>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
.byte 120,57 // js 8cfc <.literal16+0x129c>
@@ -45202,7 +45222,7 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641d65 <_sk_clut_4D_sse41+0x3d63b4c7>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641d65 <_sk_clut_4D_sse41+0x3d63b4c9>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -45228,7 +45248,7 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641da5 <_sk_clut_4D_sse41+0x3d63b507>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641da5 <_sk_clut_4D_sse41+0x3d63b509>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 192,63,0 // sarb $0x0,(%rdi)
.byte 0,192 // add %al,%al
@@ -45312,7 +45332,7 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641e75 <_sk_clut_4D_sse41+0x3d63b5d7>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641e75 <_sk_clut_4D_sse41+0x3d63b5d9>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -45338,7 +45358,7 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641eb5 <_sk_clut_4D_sse41+0x3d63b617>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641eb5 <_sk_clut_4D_sse41+0x3d63b619>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 192,63,0 // sarb $0x0,(%rdi)
.byte 0,192 // add %al,%al
@@ -45521,7 +45541,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,21,204,132,0,0 // movaps 0x84cc(%rip),%xmm2 # 8590 <_sk_clut_4D_sse2+0x15e8>
+ .byte 15,40,21,188,132,0,0 // movaps 0x84bc(%rip),%xmm2 # 8580 <_sk_clut_4D_sse2+0x15de>
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,7 // movups (%rdi),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -45530,7 +45550,7 @@ _sk_seed_shader_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,187,132,0,0 // movaps 0x84bb(%rip),%xmm2 # 85a0 <_sk_clut_4D_sse2+0x15f8>
+ .byte 15,40,21,171,132,0,0 // movaps 0x84ab(%rip),%xmm2 # 8590 <_sk_clut_4D_sse2+0x15ee>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -45550,14 +45570,14 @@ _sk_dither_sse2:
.byte 102,68,15,110,193 // movd %ecx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 102,69,15,239,193 // pxor %xmm9,%xmm8
- .byte 102,68,15,111,21,137,132,0,0 // movdqa 0x8489(%rip),%xmm10 # 85b0 <_sk_clut_4D_sse2+0x1608>
+ .byte 102,68,15,111,21,121,132,0,0 // movdqa 0x8479(%rip),%xmm10 # 85a0 <_sk_clut_4D_sse2+0x15fe>
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,209 // pand %xmm9,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,117,132,0,0 // movdqa 0x8475(%rip),%xmm12 # 85c0 <_sk_clut_4D_sse2+0x1618>
- .byte 102,68,15,111,45,124,132,0,0 // movdqa 0x847c(%rip),%xmm13 # 85d0 <_sk_clut_4D_sse2+0x1628>
+ .byte 102,68,15,111,37,101,132,0,0 // movdqa 0x8465(%rip),%xmm12 # 85b0 <_sk_clut_4D_sse2+0x160e>
+ .byte 102,68,15,111,45,108,132,0,0 // movdqa 0x846c(%rip),%xmm13 # 85c0 <_sk_clut_4D_sse2+0x161e>
.byte 102,69,15,111,240 // movdqa %xmm8,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -45573,8 +45593,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,245 // por %xmm13,%xmm14
.byte 102,69,15,235,240 // por %xmm8,%xmm14
.byte 69,15,91,198 // cvtdq2ps %xmm14,%xmm8
- .byte 68,15,89,5,55,132,0,0 // mulps 0x8437(%rip),%xmm8 # 85e0 <_sk_clut_4D_sse2+0x1638>
- .byte 68,15,88,5,63,132,0,0 // addps 0x843f(%rip),%xmm8 # 85f0 <_sk_clut_4D_sse2+0x1648>
+ .byte 68,15,89,5,39,132,0,0 // mulps 0x8427(%rip),%xmm8 # 85d0 <_sk_clut_4D_sse2+0x162e>
+ .byte 68,15,88,5,47,132,0,0 // addps 0x842f(%rip),%xmm8 # 85e0 <_sk_clut_4D_sse2+0x163e>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -45616,7 +45636,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,213,131,0,0 // movaps 0x83d5(%rip),%xmm3 # 8600 <_sk_clut_4D_sse2+0x1658>
+ .byte 15,40,29,197,131,0,0 // movaps 0x83c5(%rip),%xmm3 # 85f0 <_sk_clut_4D_sse2+0x164e>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -45627,7 +45647,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,209,131,0,0 // movaps 0x83d1(%rip),%xmm0 # 8610 <_sk_clut_4D_sse2+0x1668>
+ .byte 15,40,5,193,131,0,0 // movaps 0x83c1(%rip),%xmm0 # 8600 <_sk_clut_4D_sse2+0x165e>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -45673,7 +45693,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,145,131,0,0 // movaps 0x8391(%rip),%xmm8 # 8620 <_sk_clut_4D_sse2+0x1678>
+ .byte 68,15,40,5,129,131,0,0 // movaps 0x8381(%rip),%xmm8 # 8610 <_sk_clut_4D_sse2+0x166e>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -45698,7 +45718,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,84,131,0,0 // movaps 0x8354(%rip),%xmm9 # 8630 <_sk_clut_4D_sse2+0x1688>
+ .byte 68,15,40,13,68,131,0,0 // movaps 0x8344(%rip),%xmm9 # 8620 <_sk_clut_4D_sse2+0x167e>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -45745,7 +45765,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,248,130,0,0 // movaps 0x82f8(%rip),%xmm8 # 8640 <_sk_clut_4D_sse2+0x1698>
+ .byte 68,15,40,5,232,130,0,0 // movaps 0x82e8(%rip),%xmm8 # 8630 <_sk_clut_4D_sse2+0x168e>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -45758,7 +45778,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,232,130,0,0 // movaps 0x82e8(%rip),%xmm8 # 8650 <_sk_clut_4D_sse2+0x16a8>
+ .byte 68,15,40,5,216,130,0,0 // movaps 0x82d8(%rip),%xmm8 # 8640 <_sk_clut_4D_sse2+0x169e>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -45775,7 +45795,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,203,130,0,0 // movaps 0x82cb(%rip),%xmm8 # 8660 <_sk_clut_4D_sse2+0x16b8>
+ .byte 68,15,40,5,187,130,0,0 // movaps 0x82bb(%rip),%xmm8 # 8650 <_sk_clut_4D_sse2+0x16ae>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -45795,7 +45815,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,159,130,0,0 // movaps 0x829f(%rip),%xmm8 # 8670 <_sk_clut_4D_sse2+0x16c8>
+ .byte 68,15,40,5,143,130,0,0 // movaps 0x828f(%rip),%xmm8 # 8660 <_sk_clut_4D_sse2+0x16be>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -45823,7 +45843,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,115,130,0,0 // movaps 0x8273(%rip),%xmm8 # 8680 <_sk_clut_4D_sse2+0x16d8>
+ .byte 68,15,40,5,99,130,0,0 // movaps 0x8263(%rip),%xmm8 # 8670 <_sk_clut_4D_sse2+0x16ce>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -45898,7 +45918,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,168,129,0,0 // movaps 0x81a8(%rip),%xmm3 # 8690 <_sk_clut_4D_sse2+0x16e8>
+ .byte 15,40,29,152,129,0,0 // movaps 0x8198(%rip),%xmm3 # 8680 <_sk_clut_4D_sse2+0x16de>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -45946,7 +45966,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,19,129,0,0 // movaps 0x8113(%rip),%xmm2 # 86a0 <_sk_clut_4D_sse2+0x16f8>
+ .byte 15,40,21,3,129,0,0 // movaps 0x8103(%rip),%xmm2 # 8690 <_sk_clut_4D_sse2+0x16ee>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -45980,7 +46000,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,184,128,0,0 // movaps 0x80b8(%rip),%xmm2 # 86b0 <_sk_clut_4D_sse2+0x1708>
+ .byte 15,40,21,168,128,0,0 // movaps 0x80a8(%rip),%xmm2 # 86a0 <_sk_clut_4D_sse2+0x16fe>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -46017,7 +46037,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,82,128,0,0 // movaps 0x8052(%rip),%xmm2 # 86c0 <_sk_clut_4D_sse2+0x1718>
+ .byte 15,40,21,66,128,0,0 // movaps 0x8042(%rip),%xmm2 # 86b0 <_sk_clut_4D_sse2+0x170e>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -46045,7 +46065,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,18,128,0,0 // movaps 0x8012(%rip),%xmm2 # 86d0 <_sk_clut_4D_sse2+0x1728>
+ .byte 15,40,21,2,128,0,0 // movaps 0x8002(%rip),%xmm2 # 86c0 <_sk_clut_4D_sse2+0x171e>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -46058,93 +46078,94 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,5,128,0,0 // movaps 0x8005(%rip),%xmm10 # 86e0 <_sk_clut_4D_sse2+0x1738>
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
+ .byte 68,15,40,13,245,127,0,0 // movaps 0x7ff5(%rip),%xmm9 # 86d0 <_sk_clut_4D_sse2+0x172e>
+ .byte 69,15,40,209 // movaps %xmm9,%xmm10
+ .byte 68,15,92,215 // subps %xmm7,%xmm10
+ .byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,94,192 // divps %xmm8,%xmm0
+ .byte 69,15,83,224 // rcpps %xmm8,%xmm12
+ .byte 68,15,89,224 // mulps %xmm0,%xmm12
+ .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 65,15,93,196 // minps %xmm12,%xmm0
.byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,93,224 // minps %xmm0,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
+ .byte 68,15,92,224 // subps %xmm0,%xmm12
+ .byte 68,15,89,227 // mulps %xmm3,%xmm12
+ .byte 69,15,88,227 // addps %xmm11,%xmm12
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 69,15,40,224 // movaps %xmm8,%xmm12
- .byte 69,15,194,227,0 // cmpeqps %xmm11,%xmm12
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 69,15,85,229 // andnps %xmm13,%xmm12
- .byte 69,15,40,234 // movaps %xmm10,%xmm13
+ .byte 68,15,92,203 // subps %xmm3,%xmm9
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 68,15,89,236 // mulps %xmm4,%xmm13
- .byte 69,15,86,224 // orps %xmm8,%xmm12
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 68,15,194,199,0 // cmpeqps %xmm7,%xmm8
+ .byte 69,15,194,195,0 // cmpeqps %xmm11,%xmm8
.byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 65,15,84,192 // andps %xmm8,%xmm0
+ .byte 69,15,84,232 // andps %xmm8,%xmm13
.byte 69,15,85,196 // andnps %xmm12,%xmm8
- .byte 65,15,86,192 // orps %xmm8,%xmm0
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
+ .byte 68,15,40,228 // movaps %xmm4,%xmm12
+ .byte 68,15,194,231,0 // cmpeqps %xmm7,%xmm12
+ .byte 69,15,86,197 // orps %xmm13,%xmm8
+ .byte 65,15,84,196 // andps %xmm12,%xmm0
+ .byte 69,15,85,224 // andnps %xmm8,%xmm12
+ .byte 65,15,86,196 // orps %xmm12,%xmm0
+ .byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 68,15,89,193 // mulps %xmm1,%xmm8
.byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 68,15,92,229 // subps %xmm5,%xmm12
.byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 68,15,94,225 // divps %xmm1,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,93,236 // minps %xmm12,%xmm13
+ .byte 68,15,83,233 // rcpps %xmm1,%xmm13
+ .byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,233 // movaps %xmm1,%xmm13
- .byte 69,15,194,235,0 // cmpeqps %xmm11,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,224 // addps %xmm8,%xmm12
- .byte 65,15,84,205 // andps %xmm13,%xmm1
- .byte 69,15,85,236 // andnps %xmm12,%xmm13
- .byte 68,15,88,197 // addps %xmm5,%xmm8
- .byte 68,15,86,233 // orps %xmm1,%xmm13
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,88,233 // addps %xmm1,%xmm13
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
- .byte 68,15,84,193 // andps %xmm1,%xmm8
+ .byte 69,15,93,229 // minps %xmm13,%xmm12
+ .byte 68,15,40,239 // movaps %xmm7,%xmm13
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 69,15,40,225 // movaps %xmm9,%xmm12
+ .byte 68,15,89,229 // mulps %xmm5,%xmm12
+ .byte 65,15,194,203,0 // cmpeqps %xmm11,%xmm1
+ .byte 68,15,89,235 // mulps %xmm3,%xmm13
+ .byte 69,15,88,232 // addps %xmm8,%xmm13
+ .byte 69,15,88,236 // addps %xmm12,%xmm13
+ .byte 68,15,84,225 // andps %xmm1,%xmm12
.byte 65,15,85,205 // andnps %xmm13,%xmm1
- .byte 68,15,86,193 // orps %xmm1,%xmm8
+ .byte 68,15,88,197 // addps %xmm5,%xmm8
+ .byte 65,15,86,204 // orps %xmm12,%xmm1
+ .byte 68,15,40,229 // movaps %xmm5,%xmm12
+ .byte 68,15,194,231,0 // cmpeqps %xmm7,%xmm12
+ .byte 69,15,84,196 // andps %xmm12,%xmm8
+ .byte 68,15,85,225 // andnps %xmm1,%xmm12
+ .byte 69,15,86,196 // orps %xmm12,%xmm8
+ .byte 68,15,89,210 // mulps %xmm2,%xmm10
+ .byte 68,15,194,218,0 // cmpeqps %xmm2,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,94,202 // divps %xmm2,%xmm1
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,93,225 // minps %xmm1,%xmm12
+ .byte 15,83,210 // rcpps %xmm2,%xmm2
+ .byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 68,15,194,218,0 // cmpeqps %xmm2,%xmm11
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 65,15,84,211 // andps %xmm11,%xmm2
- .byte 68,15,85,217 // andnps %xmm1,%xmm11
- .byte 68,15,88,206 // addps %xmm6,%xmm9
- .byte 68,15,86,218 // orps %xmm2,%xmm11
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
+ .byte 15,93,202 // minps %xmm2,%xmm1
+ .byte 15,40,215 // movaps %xmm7,%xmm2
+ .byte 15,92,209 // subps %xmm1,%xmm2
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 68,15,88,217 // addps %xmm1,%xmm11
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 65,15,88,210 // addps %xmm10,%xmm2
+ .byte 15,88,209 // addps %xmm1,%xmm2
+ .byte 65,15,84,203 // andps %xmm11,%xmm1
+ .byte 68,15,85,218 // andnps %xmm2,%xmm11
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 68,15,86,217 // orps %xmm1,%xmm11
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
- .byte 68,15,84,201 // andps %xmm1,%xmm9
+ .byte 15,84,209 // andps %xmm1,%xmm2
.byte 65,15,85,203 // andnps %xmm11,%xmm1
- .byte 68,15,86,201 // orps %xmm1,%xmm9
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 65,15,88,218 // addps %xmm10,%xmm3
+ .byte 15,86,209 // orps %xmm1,%xmm2
+ .byte 68,15,89,207 // mulps %xmm7,%xmm9
+ .byte 65,15,88,217 // addps %xmm9,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_colordodge_sse2
@@ -46152,28 +46173,27 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,187,126,0,0 // movaps 0x7ebb(%rip),%xmm10 # 86f0 <_sk_clut_4D_sse2+0x1748>
+ .byte 68,15,40,21,173,126,0,0 // movaps 0x7ead(%rip),%xmm10 # 86e0 <_sk_clut_4D_sse2+0x173e>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
+ .byte 65,15,40,195 // movaps %xmm11,%xmm0
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 68,15,40,227 // movaps %xmm3,%xmm12
+ .byte 68,15,89,228 // mulps %xmm4,%xmm12
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,94,192 // divps %xmm0,%xmm8
+ .byte 69,15,92,193 // subps %xmm9,%xmm8
+ .byte 69,15,83,192 // rcpps %xmm8,%xmm8
+ .byte 69,15,89,196 // mulps %xmm12,%xmm8
+ .byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,93,192 // minps %xmm8,%xmm0
+ .byte 69,15,93,232 // minps %xmm8,%xmm13
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
+ .byte 68,15,89,235 // mulps %xmm3,%xmm13
+ .byte 68,15,88,232 // addps %xmm0,%xmm13
.byte 69,15,84,206 // andps %xmm14,%xmm9
- .byte 68,15,85,240 // andnps %xmm0,%xmm14
+ .byte 69,15,85,245 // andnps %xmm13,%xmm14
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,40,196 // movaps %xmm12,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
.byte 68,15,92,211 // subps %xmm3,%xmm10
.byte 69,15,86,241 // orps %xmm9,%xmm14
.byte 69,15,40,202 // movaps %xmm10,%xmm9
@@ -46186,49 +46206,48 @@ _sk_colordodge_sse2:
.byte 65,15,86,193 // orps %xmm9,%xmm0
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 69,15,94,204 // divps %xmm12,%xmm9
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 69,15,93,233 // minps %xmm9,%xmm13
- .byte 68,15,40,241 // movaps %xmm1,%xmm14
- .byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 65,15,84,206 // andps %xmm14,%xmm1
- .byte 69,15,85,245 // andnps %xmm13,%xmm14
- .byte 69,15,40,204 // movaps %xmm12,%xmm9
- .byte 68,15,88,205 // addps %xmm5,%xmm9
- .byte 68,15,86,241 // orps %xmm1,%xmm14
+ .byte 68,15,40,235 // movaps %xmm3,%xmm13
+ .byte 68,15,92,233 // subps %xmm1,%xmm13
+ .byte 69,15,83,237 // rcpps %xmm13,%xmm13
+ .byte 69,15,89,233 // mulps %xmm9,%xmm13
+ .byte 69,15,40,203 // movaps %xmm11,%xmm9
+ .byte 68,15,89,201 // mulps %xmm1,%xmm9
+ .byte 69,15,93,229 // minps %xmm13,%xmm12
+ .byte 68,15,40,233 // movaps %xmm1,%xmm13
+ .byte 68,15,194,235,0 // cmpeqps %xmm3,%xmm13
+ .byte 68,15,89,227 // mulps %xmm3,%xmm12
+ .byte 69,15,88,225 // addps %xmm9,%xmm12
+ .byte 65,15,84,205 // andps %xmm13,%xmm1
+ .byte 69,15,85,236 // andnps %xmm12,%xmm13
+ .byte 68,15,86,233 // orps %xmm1,%xmm13
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,88,241 // addps %xmm1,%xmm14
+ .byte 68,15,88,233 // addps %xmm1,%xmm13
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 65,15,194,200,0 // cmpeqps %xmm8,%xmm1
.byte 68,15,84,201 // andps %xmm1,%xmm9
- .byte 65,15,85,206 // andnps %xmm14,%xmm1
+ .byte 65,15,85,205 // andnps %xmm13,%xmm1
.byte 68,15,86,201 // orps %xmm1,%xmm9
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 68,15,94,225 // divps %xmm1,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
+ .byte 68,15,83,233 // rcpps %xmm1,%xmm13
+ .byte 69,15,89,236 // mulps %xmm12,%xmm13
+ .byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,93,236 // minps %xmm12,%xmm13
+ .byte 69,15,93,229 // minps %xmm13,%xmm12
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,194,203,0 // cmpeqps %xmm3,%xmm1
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
+ .byte 68,15,89,227 // mulps %xmm3,%xmm12
+ .byte 69,15,88,227 // addps %xmm11,%xmm12
.byte 15,84,209 // andps %xmm1,%xmm2
- .byte 65,15,85,205 // andnps %xmm13,%xmm1
+ .byte 65,15,85,204 // andnps %xmm12,%xmm1
.byte 15,86,202 // orps %xmm2,%xmm1
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 68,15,194,198,0 // cmpeqps %xmm6,%xmm8
- .byte 68,15,88,222 // addps %xmm6,%xmm11
.byte 69,15,84,216 // andps %xmm8,%xmm11
.byte 68,15,85,193 // andnps %xmm1,%xmm8
.byte 69,15,86,195 // orps %xmm11,%xmm8
@@ -46246,7 +46265,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,112,125,0,0 // movaps 0x7d70(%rip),%xmm11 # 8700 <_sk_clut_4D_sse2+0x1758>
+ .byte 68,15,40,29,102,125,0,0 // movaps 0x7d66(%rip),%xmm11 # 86f0 <_sk_clut_4D_sse2+0x174e>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -46334,7 +46353,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,62,124,0,0 // movaps 0x7c3e(%rip),%xmm9 # 8710 <_sk_clut_4D_sse2+0x1768>
+ .byte 68,15,40,13,52,124,0,0 // movaps 0x7c34(%rip),%xmm9 # 8700 <_sk_clut_4D_sse2+0x175e>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -46425,7 +46444,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,251,122,0,0 // movaps 0x7afb(%rip),%xmm9 # 8720 <_sk_clut_4D_sse2+0x1778>
+ .byte 68,15,40,13,241,122,0,0 // movaps 0x7af1(%rip),%xmm9 # 8710 <_sk_clut_4D_sse2+0x176e>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -46438,10 +46457,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,213,122,0,0 // movaps 0x7ad5(%rip),%xmm14 # 8730 <_sk_clut_4D_sse2+0x1788>
+ .byte 68,15,40,53,203,122,0,0 // movaps 0x7acb(%rip),%xmm14 # 8720 <_sk_clut_4D_sse2+0x177e>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,213,122,0,0 // movaps 0x7ad5(%rip),%xmm10 # 8740 <_sk_clut_4D_sse2+0x1798>
+ .byte 68,15,40,21,203,122,0,0 // movaps 0x7acb(%rip),%xmm10 # 8730 <_sk_clut_4D_sse2+0x178e>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -46586,7 +46605,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,24,121,0,0 // movaps 0x7918(%rip),%xmm8 # 8780 <_sk_clut_4D_sse2+0x17d8>
+ .byte 68,15,40,5,14,121,0,0 // movaps 0x790e(%rip),%xmm8 # 8770 <_sk_clut_4D_sse2+0x17ce>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -46634,12 +46653,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,37,120,0,0 // movaps 0x7825(%rip),%xmm15 # 8750 <_sk_clut_4D_sse2+0x17a8>
+ .byte 68,15,40,61,27,120,0,0 // movaps 0x781b(%rip),%xmm15 # 8740 <_sk_clut_4D_sse2+0x179e>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,42,120,0,0 // movaps 0x782a(%rip),%xmm0 # 8760 <_sk_clut_4D_sse2+0x17b8>
+ .byte 15,40,5,32,120,0,0 // movaps 0x7820(%rip),%xmm0 # 8750 <_sk_clut_4D_sse2+0x17ae>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,44,120,0,0 // movaps 0x782c(%rip),%xmm14 # 8770 <_sk_clut_4D_sse2+0x17c8>
+ .byte 68,15,40,53,34,120,0,0 // movaps 0x7822(%rip),%xmm14 # 8760 <_sk_clut_4D_sse2+0x17be>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -46817,14 +46836,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,190,117,0,0 // movaps 0x75be(%rip),%xmm8 # 8790 <_sk_clut_4D_sse2+0x17e8>
+ .byte 68,15,40,5,180,117,0,0 // movaps 0x75b4(%rip),%xmm8 # 8780 <_sk_clut_4D_sse2+0x17de>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,192,117,0,0 // movaps 0x75c0(%rip),%xmm1 # 87a0 <_sk_clut_4D_sse2+0x17f8>
+ .byte 15,40,13,182,117,0,0 // movaps 0x75b6(%rip),%xmm1 # 8790 <_sk_clut_4D_sse2+0x17ee>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,191,117,0,0 // movaps 0x75bf(%rip),%xmm12 # 87b0 <_sk_clut_4D_sse2+0x1808>
+ .byte 68,15,40,37,181,117,0,0 // movaps 0x75b5(%rip),%xmm12 # 87a0 <_sk_clut_4D_sse2+0x17fe>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -46869,7 +46888,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,36,117,0,0 // movaps 0x7524(%rip),%xmm8 # 87c0 <_sk_clut_4D_sse2+0x1818>
+ .byte 68,15,40,5,26,117,0,0 // movaps 0x751a(%rip),%xmm8 # 87b0 <_sk_clut_4D_sse2+0x180e>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -46970,14 +46989,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,194,115,0,0 // movaps 0x73c2(%rip),%xmm13 # 87d0 <_sk_clut_4D_sse2+0x1828>
+ .byte 68,15,40,45,184,115,0,0 // movaps 0x73b8(%rip),%xmm13 # 87c0 <_sk_clut_4D_sse2+0x181e>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,194,115,0,0 // movaps 0x73c2(%rip),%xmm14 # 87e0 <_sk_clut_4D_sse2+0x1838>
+ .byte 68,15,40,53,184,115,0,0 // movaps 0x73b8(%rip),%xmm14 # 87d0 <_sk_clut_4D_sse2+0x182e>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,190,115,0,0 // movaps 0x73be(%rip),%xmm11 # 87f0 <_sk_clut_4D_sse2+0x1848>
+ .byte 68,15,40,29,180,115,0,0 // movaps 0x73b4(%rip),%xmm11 # 87e0 <_sk_clut_4D_sse2+0x183e>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -46985,7 +47004,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,170,115,0,0 // movaps 0x73aa(%rip),%xmm8 # 8800 <_sk_clut_4D_sse2+0x1858>
+ .byte 68,15,40,5,160,115,0,0 // movaps 0x73a0(%rip),%xmm8 # 87f0 <_sk_clut_4D_sse2+0x184e>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -47121,15 +47140,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,193,113,0,0 // movaps 0x71c1(%rip),%xmm12 # 8810 <_sk_clut_4D_sse2+0x1868>
+ .byte 68,15,40,37,183,113,0,0 // movaps 0x71b7(%rip),%xmm12 # 8800 <_sk_clut_4D_sse2+0x185e>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,193,113,0,0 // movaps 0x71c1(%rip),%xmm13 # 8820 <_sk_clut_4D_sse2+0x1878>
+ .byte 68,15,40,45,183,113,0,0 // movaps 0x71b7(%rip),%xmm13 # 8810 <_sk_clut_4D_sse2+0x186e>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,189,113,0,0 // movaps 0x71bd(%rip),%xmm11 # 8830 <_sk_clut_4D_sse2+0x1888>
- .byte 68,15,40,5,197,113,0,0 // movaps 0x71c5(%rip),%xmm8 # 8840 <_sk_clut_4D_sse2+0x1898>
+ .byte 68,15,40,29,179,113,0,0 // movaps 0x71b3(%rip),%xmm11 # 8820 <_sk_clut_4D_sse2+0x187e>
+ .byte 68,15,40,5,187,113,0,0 // movaps 0x71bb(%rip),%xmm8 # 8830 <_sk_clut_4D_sse2+0x188e>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -47270,10 +47289,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,228,0,0,0 // jne 1966 <_sk_srcover_rgba_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 1960 <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,129 // movdqu (%r9,%rax,4),%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 102,15,111,53,189,111,0,0 // movdqa 0x6fbd(%rip),%xmm6 # 8850 <_sk_clut_4D_sse2+0x18a8>
+ .byte 102,15,111,53,179,111,0,0 // movdqa 0x6fb3(%rip),%xmm6 # 8840 <_sk_clut_4D_sse2+0x189e>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -47287,9 +47306,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,141,111,0,0 // movaps 0x6f8d(%rip),%xmm8 # 8860 <_sk_clut_4D_sse2+0x18b8>
+ .byte 68,15,40,5,131,111,0,0 // movaps 0x6f83(%rip),%xmm8 # 8850 <_sk_clut_4D_sse2+0x18ae>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,145,111,0,0 // movaps 0x6f91(%rip),%xmm12 # 8870 <_sk_clut_4D_sse2+0x18c8>
+ .byte 68,15,40,37,135,111,0,0 // movaps 0x6f87(%rip),%xmm12 # 8860 <_sk_clut_4D_sse2+0x18be>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -47315,7 +47334,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 19a0 <_sk_srcover_rgba_8888_sse2+0x13e>
+ .byte 117,84 // jne 199a <_sk_srcover_rgba_8888_sse2+0x13e>
.byte 243,65,15,127,4,129 // movdqu %xmm0,(%r9,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -47326,32 +47345,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,90 // je 19cd <_sk_srcover_rgba_8888_sse2+0x16b>
+ .byte 116,90 // je 19c7 <_sk_srcover_rgba_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 1995 <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,23 // je 198f <_sk_srcover_rgba_8888_sse2+0x133>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 15,133,0,255,255,255 // jne 1888 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 1882 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,129 // movlpd (%r9,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 1888 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 1882 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,43 // je 19d8 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 19d2 <_sk_srcover_rgba_8888_sse2+0x176>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 19c5 <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 19bf <_sk_srcover_rgba_8888_sse2+0x163>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,153 // jne 1952 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,153 // jne 194c <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,129,8 // movd %xmm1,0x8(%r9,%rax,4)
.byte 102,65,15,214,4,129 // movq %xmm0,(%r9,%rax,4)
- .byte 235,133 // jmp 1952 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 235,133 // jmp 194c <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,69,15,110,4,129 // movd (%r9,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 1888 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 1882 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,126,4,129 // movd %xmm0,(%r9,%rax,4)
- .byte 233,111,255,255,255 // jmpq 1952 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 194c <_sk_srcover_rgba_8888_sse2+0xf0>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -47369,7 +47388,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,125,110,0,0 // movaps 0x6e7d(%rip),%xmm8 # 8880 <_sk_clut_4D_sse2+0x18d8>
+ .byte 68,15,40,5,115,110,0,0 // movaps 0x6e73(%rip),%xmm8 # 8870 <_sk_clut_4D_sse2+0x18ce>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -47381,7 +47400,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,114,110,0,0 // minps 0x6e72(%rip),%xmm3 # 8890 <_sk_clut_4D_sse2+0x18e8>
+ .byte 15,93,29,104,110,0,0 // minps 0x6e68(%rip),%xmm3 # 8880 <_sk_clut_4D_sse2+0x18de>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -47392,7 +47411,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,110,110,0,0 // minps 0x6e6e(%rip),%xmm7 # 88a0 <_sk_clut_4D_sse2+0x18f8>
+ .byte 15,93,61,100,110,0,0 // minps 0x6e64(%rip),%xmm7 # 8890 <_sk_clut_4D_sse2+0x18ee>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -47427,7 +47446,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,58,110,0,0 // movaps 0x6e3a(%rip),%xmm8 # 88b0 <_sk_clut_4D_sse2+0x1908>
+ .byte 68,15,40,5,48,110,0,0 // movaps 0x6e30(%rip),%xmm8 # 88a0 <_sk_clut_4D_sse2+0x18fe>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -47489,7 +47508,7 @@ HIDDEN _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,212,109,0,0 // movaps 0x6dd4(%rip),%xmm9 # 88c0 <_sk_clut_4D_sse2+0x1918>
+ .byte 68,15,40,13,202,109,0,0 // movaps 0x6dca(%rip),%xmm9 # 88b0 <_sk_clut_4D_sse2+0x190e>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -47503,20 +47522,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,191,109,0,0 // movaps 0x6dbf(%rip),%xmm8 # 88d0 <_sk_clut_4D_sse2+0x1928>
+ .byte 68,15,40,5,181,109,0,0 // movaps 0x6db5(%rip),%xmm8 # 88c0 <_sk_clut_4D_sse2+0x191e>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,183,109,0,0 // movaps 0x6db7(%rip),%xmm9 # 88e0 <_sk_clut_4D_sse2+0x1938>
+ .byte 68,15,40,13,173,109,0,0 // movaps 0x6dad(%rip),%xmm9 # 88d0 <_sk_clut_4D_sse2+0x192e>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,183,109,0,0 // movaps 0x6db7(%rip),%xmm10 # 88f0 <_sk_clut_4D_sse2+0x1948>
+ .byte 68,15,40,21,173,109,0,0 // movaps 0x6dad(%rip),%xmm10 # 88e0 <_sk_clut_4D_sse2+0x193e>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,183,109,0,0 // movaps 0x6db7(%rip),%xmm11 # 8900 <_sk_clut_4D_sse2+0x1958>
+ .byte 68,15,40,29,173,109,0,0 // movaps 0x6dad(%rip),%xmm11 # 88f0 <_sk_clut_4D_sse2+0x194e>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,187,109,0,0 // movaps 0x6dbb(%rip),%xmm12 # 8910 <_sk_clut_4D_sse2+0x1968>
+ .byte 68,15,40,37,177,109,0,0 // movaps 0x6db1(%rip),%xmm12 # 8900 <_sk_clut_4D_sse2+0x195e>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -47552,20 +47571,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,76,109,0,0 // movaps 0x6d4c(%rip),%xmm8 # 8920 <_sk_clut_4D_sse2+0x1978>
+ .byte 68,15,40,5,66,109,0,0 // movaps 0x6d42(%rip),%xmm8 # 8910 <_sk_clut_4D_sse2+0x196e>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,68,109,0,0 // movaps 0x6d44(%rip),%xmm9 # 8930 <_sk_clut_4D_sse2+0x1988>
+ .byte 68,15,40,13,58,109,0,0 // movaps 0x6d3a(%rip),%xmm9 # 8920 <_sk_clut_4D_sse2+0x197e>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,68,109,0,0 // movaps 0x6d44(%rip),%xmm10 # 8940 <_sk_clut_4D_sse2+0x1998>
+ .byte 68,15,40,21,58,109,0,0 // movaps 0x6d3a(%rip),%xmm10 # 8930 <_sk_clut_4D_sse2+0x198e>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,68,109,0,0 // movaps 0x6d44(%rip),%xmm11 # 8950 <_sk_clut_4D_sse2+0x19a8>
+ .byte 68,15,40,29,58,109,0,0 // movaps 0x6d3a(%rip),%xmm11 # 8940 <_sk_clut_4D_sse2+0x199e>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,72,109,0,0 // movaps 0x6d48(%rip),%xmm12 # 8960 <_sk_clut_4D_sse2+0x19b8>
+ .byte 68,15,40,37,62,109,0,0 // movaps 0x6d3e(%rip),%xmm12 # 8950 <_sk_clut_4D_sse2+0x19ae>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -47602,22 +47621,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,213,108,0,0 // movaps 0x6cd5(%rip),%xmm8 # 8970 <_sk_clut_4D_sse2+0x19c8>
+ .byte 68,15,40,5,203,108,0,0 // movaps 0x6ccb(%rip),%xmm8 # 8960 <_sk_clut_4D_sse2+0x19be>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,213,108,0,0 // movaps 0x6cd5(%rip),%xmm9 # 8980 <_sk_clut_4D_sse2+0x19d8>
+ .byte 68,15,40,13,203,108,0,0 // movaps 0x6ccb(%rip),%xmm9 # 8970 <_sk_clut_4D_sse2+0x19ce>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,213,108,0,0 // movaps 0x6cd5(%rip),%xmm10 # 8990 <_sk_clut_4D_sse2+0x19e8>
+ .byte 68,15,40,21,203,108,0,0 // movaps 0x6ccb(%rip),%xmm10 # 8980 <_sk_clut_4D_sse2+0x19de>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,213,108,0,0 // movaps 0x6cd5(%rip),%xmm11 # 89a0 <_sk_clut_4D_sse2+0x19f8>
+ .byte 68,15,40,29,203,108,0,0 // movaps 0x6ccb(%rip),%xmm11 # 8990 <_sk_clut_4D_sse2+0x19ee>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,217,108,0,0 // movaps 0x6cd9(%rip),%xmm12 # 89b0 <_sk_clut_4D_sse2+0x1a08>
+ .byte 68,15,40,37,207,108,0,0 // movaps 0x6ccf(%rip),%xmm12 # 89a0 <_sk_clut_4D_sse2+0x19fe>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,213,108,0,0 // movaps 0x6cd5(%rip),%xmm15 # 89c0 <_sk_clut_4D_sse2+0x1a18>
+ .byte 68,15,40,61,203,108,0,0 // movaps 0x6ccb(%rip),%xmm15 # 89b0 <_sk_clut_4D_sse2+0x1a0e>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -47667,7 +47686,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,218 // minps %xmm2,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,46,108,0,0 // movaps 0x6c2e(%rip),%xmm13 # 89d0 <_sk_clut_4D_sse2+0x1a28>
+ .byte 68,15,40,45,36,108,0,0 // movaps 0x6c24(%rip),%xmm13 # 89c0 <_sk_clut_4D_sse2+0x1a1e>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -47676,30 +47695,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,20,108,0,0 // andps 0x6c14(%rip),%xmm14 # 89e0 <_sk_clut_4D_sse2+0x1a38>
+ .byte 68,15,84,53,10,108,0,0 // andps 0x6c0a(%rip),%xmm14 # 89d0 <_sk_clut_4D_sse2+0x1a2e>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,7,108,0,0 // movaps 0x6c07(%rip),%xmm12 # 89f0 <_sk_clut_4D_sse2+0x1a48>
+ .byte 68,15,40,37,253,107,0,0 // movaps 0x6bfd(%rip),%xmm12 # 89e0 <_sk_clut_4D_sse2+0x1a3e>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,3,108,0,0 // addps 0x6c03(%rip),%xmm8 # 8a00 <_sk_clut_4D_sse2+0x1a58>
+ .byte 68,15,88,5,249,107,0,0 // addps 0x6bf9(%rip),%xmm8 # 89f0 <_sk_clut_4D_sse2+0x1a4e>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,244,107,0,0 // mulps 0x6bf4(%rip),%xmm0 # 8a10 <_sk_clut_4D_sse2+0x1a68>
+ .byte 15,89,5,234,107,0,0 // mulps 0x6bea(%rip),%xmm0 # 8a00 <_sk_clut_4D_sse2+0x1a5e>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,231,107,0,0 // movaps 0x6be7(%rip),%xmm9 # 8a20 <_sk_clut_4D_sse2+0x1a78>
+ .byte 68,15,40,13,221,107,0,0 // movaps 0x6bdd(%rip),%xmm9 # 8a10 <_sk_clut_4D_sse2+0x1a6e>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -47723,7 +47742,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,166,107,0,0 // movaps 0x6ba6(%rip),%xmm9 # 8a30 <_sk_clut_4D_sse2+0x1a88>
+ .byte 68,15,40,13,156,107,0,0 // movaps 0x6b9c(%rip),%xmm9 # 8a20 <_sk_clut_4D_sse2+0x1a7e>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -47740,28 +47759,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,111,107,0,0 // movaps 0x6b6f(%rip),%xmm0 # 8a40 <_sk_clut_4D_sse2+0x1a98>
+ .byte 15,40,5,101,107,0,0 // movaps 0x6b65(%rip),%xmm0 # 8a30 <_sk_clut_4D_sse2+0x1a8e>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,103,107,0,0 // andps 0x6b67(%rip),%xmm3 # 8a50 <_sk_clut_4D_sse2+0x1aa8>
+ .byte 15,84,29,93,107,0,0 // andps 0x6b5d(%rip),%xmm3 # 8a40 <_sk_clut_4D_sse2+0x1a9e>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,105,107,0,0 // movaps 0x6b69(%rip),%xmm13 # 8a60 <_sk_clut_4D_sse2+0x1ab8>
+ .byte 68,15,40,45,95,107,0,0 // movaps 0x6b5f(%rip),%xmm13 # 8a50 <_sk_clut_4D_sse2+0x1aae>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,121,107,0,0 // movaps 0x6b79(%rip),%xmm2 # 8a90 <_sk_clut_4D_sse2+0x1ae8>
+ .byte 15,40,21,111,107,0,0 // movaps 0x6b6f(%rip),%xmm2 # 8a80 <_sk_clut_4D_sse2+0x1ade>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,73,107,0,0 // movaps 0x6b49(%rip),%xmm1 # 8a70 <_sk_clut_4D_sse2+0x1ac8>
+ .byte 15,40,13,63,107,0,0 // movaps 0x6b3f(%rip),%xmm1 # 8a60 <_sk_clut_4D_sse2+0x1abe>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,79,107,0,0 // movaps 0x6b4f(%rip),%xmm5 # 8a80 <_sk_clut_4D_sse2+0x1ad8>
+ .byte 15,40,45,69,107,0,0 // movaps 0x6b45(%rip),%xmm5 # 8a70 <_sk_clut_4D_sse2+0x1ace>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -47784,7 +47803,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,196,106,0,0 // andps 0x6ac4(%rip),%xmm3 # 8a50 <_sk_clut_4D_sse2+0x1aa8>
+ .byte 15,84,29,186,106,0,0 // andps 0x6aba(%rip),%xmm3 # 8a40 <_sk_clut_4D_sse2+0x1a9e>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -47814,12 +47833,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,156,106,0,0 // addps 0x6a9c(%rip),%xmm6 # 8aa0 <_sk_clut_4D_sse2+0x1af8>
+ .byte 15,88,53,146,106,0,0 // addps 0x6a92(%rip),%xmm6 # 8a90 <_sk_clut_4D_sse2+0x1aee>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,55,106,0,0 // andps 0x6a37(%rip),%xmm3 # 8a50 <_sk_clut_4D_sse2+0x1aa8>
+ .byte 15,84,29,45,106,0,0 // andps 0x6a2d(%rip),%xmm3 # 8a40 <_sk_clut_4D_sse2+0x1a9e>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -47883,13 +47902,13 @@ _sk_scale_u8_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,61 // jne 211a <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 2114 <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,25 // movd (%r9,%r11,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,186,105,0,0 // pand 0x69ba(%rip),%xmm8 # 8ab0 <_sk_clut_4D_sse2+0x1b08>
+ .byte 102,68,15,219,5,176,105,0,0 // pand 0x69b0(%rip),%xmm8 # 8aa0 <_sk_clut_4D_sse2+0x1afe>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,190,105,0,0 // mulps 0x69be(%rip),%xmm8 # 8ac0 <_sk_clut_4D_sse2+0x1b18>
+ .byte 68,15,89,5,180,105,0,0 // mulps 0x69b4(%rip),%xmm8 # 8ab0 <_sk_clut_4D_sse2+0x1b0e>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -47900,12 +47919,12 @@ _sk_scale_u8_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,61 // je 2164 <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 215e <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 2149 <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 2143 <_sk_scale_u8_sse2+0x84>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,181 // jne 20ed <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 20e7 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -47914,10 +47933,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 20ed <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 20e7 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 20ed <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 20e7 <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -47952,13 +47971,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,81 // jne 2214 <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 220e <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,25 // movd (%r9,%r11,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,244,104,0,0 // pand 0x68f4(%rip),%xmm8 # 8ad0 <_sk_clut_4D_sse2+0x1b28>
+ .byte 102,68,15,219,5,234,104,0,0 // pand 0x68ea(%rip),%xmm8 # 8ac0 <_sk_clut_4D_sse2+0x1b1e>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,248,104,0,0 // mulps 0x68f8(%rip),%xmm8 # 8ae0 <_sk_clut_4D_sse2+0x1b38>
+ .byte 68,15,89,5,238,104,0,0 // mulps 0x68ee(%rip),%xmm8 # 8ad0 <_sk_clut_4D_sse2+0x1b2e>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -47976,12 +47995,12 @@ _sk_lerp_u8_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,64 // je 2261 <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 225b <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 2243 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 223d <_sk_lerp_u8_sse2+0x98>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,161 // jne 21d3 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 21cd <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -47990,10 +48009,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 21d3 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 21cd <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 21d3 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 21cd <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -48007,20 +48026,20 @@ _sk_lerp_565_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,156,0,0,0 // jne 232b <_sk_lerp_565_sse2+0xbb>
+ .byte 15,133,156,0,0,0 // jne 2325 <_sk_lerp_565_sse2+0xbb>
.byte 243,71,15,126,12,89 // movq (%r9,%r11,2),%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
- .byte 102,68,15,111,5,77,104,0,0 // movdqa 0x684d(%rip),%xmm8 # 8af0 <_sk_clut_4D_sse2+0x1b48>
+ .byte 102,68,15,111,5,67,104,0,0 // movdqa 0x6843(%rip),%xmm8 # 8ae0 <_sk_clut_4D_sse2+0x1b3e>
.byte 102,69,15,219,193 // pand %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,76,104,0,0 // mulps 0x684c(%rip),%xmm8 # 8b00 <_sk_clut_4D_sse2+0x1b58>
- .byte 102,68,15,111,21,83,104,0,0 // movdqa 0x6853(%rip),%xmm10 # 8b10 <_sk_clut_4D_sse2+0x1b68>
+ .byte 68,15,89,5,66,104,0,0 // mulps 0x6842(%rip),%xmm8 # 8af0 <_sk_clut_4D_sse2+0x1b4e>
+ .byte 102,68,15,111,21,73,104,0,0 // movdqa 0x6849(%rip),%xmm10 # 8b00 <_sk_clut_4D_sse2+0x1b5e>
.byte 102,69,15,219,209 // pand %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,82,104,0,0 // mulps 0x6852(%rip),%xmm10 # 8b20 <_sk_clut_4D_sse2+0x1b78>
- .byte 102,68,15,219,13,89,104,0,0 // pand 0x6859(%rip),%xmm9 # 8b30 <_sk_clut_4D_sse2+0x1b88>
+ .byte 68,15,89,21,72,104,0,0 // mulps 0x6848(%rip),%xmm10 # 8b10 <_sk_clut_4D_sse2+0x1b6e>
+ .byte 102,68,15,219,13,79,104,0,0 // pand 0x684f(%rip),%xmm9 # 8b20 <_sk_clut_4D_sse2+0x1b7e>
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,93,104,0,0 // mulps 0x685d(%rip),%xmm9 # 8b40 <_sk_clut_4D_sse2+0x1b98>
+ .byte 68,15,89,13,83,104,0,0 // mulps 0x6853(%rip),%xmm9 # 8b30 <_sk_clut_4D_sse2+0x1b8e>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -48045,22 +48064,22 @@ _sk_lerp_565_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,59 // je 2373 <_sk_lerp_565_sse2+0x103>
+ .byte 116,59 // je 236d <_sk_lerp_565_sse2+0x103>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,27 // je 235e <_sk_lerp_565_sse2+0xee>
+ .byte 116,27 // je 2358 <_sk_lerp_565_sse2+0xee>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 15,133,77,255,255,255 // jne 229a <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,77,255,255,255 // jne 2294 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,200,69 // pshufd $0x45,%xmm8,%xmm9
.byte 102,71,15,110,4,89 // movd (%r9,%r11,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
.byte 242,69,15,16,200 // movsd %xmm8,%xmm9
- .byte 233,39,255,255,255 // jmpq 229a <_sk_lerp_565_sse2+0x2a>
+ .byte 233,39,255,255,255 // jmpq 2294 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 233,24,255,255,255 // jmpq 229a <_sk_lerp_565_sse2+0x2a>
+ .byte 233,24,255,255,255 // jmpq 2294 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -48069,12 +48088,12 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,8 // mov (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,36,1,0,0 // jne 24b4 <_sk_load_tables_sse2+0x132>
+ .byte 15,133,36,1,0,0 // jne 24ae <_sk_load_tables_sse2+0x132>
.byte 243,69,15,111,12,145 // movdqu (%r9,%rdx,4),%xmm9
.byte 65,87 // push %r15
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,172,103,0,0 // movdqa 0x67ac(%rip),%xmm8 # 8b50 <_sk_clut_4D_sse2+0x1ba8>
+ .byte 102,68,15,111,5,162,103,0,0 // movdqa 0x67a2(%rip),%xmm8 # 8b40 <_sk_clut_4D_sse2+0x1b9e>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -48130,7 +48149,7 @@ _sk_load_tables_sse2:
.byte 65,15,20,208 // unpcklps %xmm8,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,181,102,0,0 // mulps 0x66b5(%rip),%xmm3 # 8b60 <_sk_clut_4D_sse2+0x1bb8>
+ .byte 15,89,29,171,102,0,0 // mulps 0x66ab(%rip),%xmm3 # 8b50 <_sk_clut_4D_sse2+0x1bae>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -48139,18 +48158,18 @@ _sk_load_tables_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,45 // je 24ee <_sk_load_tables_sse2+0x16c>
+ .byte 116,45 // je 24e8 <_sk_load_tables_sse2+0x16c>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,23 // je 24e3 <_sk_load_tables_sse2+0x161>
+ .byte 116,23 // je 24dd <_sk_load_tables_sse2+0x161>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 15,133,192,254,255,255 // jne 2396 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,192,254,255,255 // jne 2390 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,145,8 // movd 0x8(%r9,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,145 // movlpd (%r9,%rdx,4),%xmm9
- .byte 233,168,254,255,255 // jmpq 2396 <_sk_load_tables_sse2+0x14>
+ .byte 233,168,254,255,255 // jmpq 2390 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,145 // movd (%r9,%rdx,4),%xmm9
- .byte 233,157,254,255,255 // jmpq 2396 <_sk_load_tables_sse2+0x14>
+ .byte 233,157,254,255,255 // jmpq 2390 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -48160,7 +48179,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,8 // mov (%rax),%r9
.byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,101,1,0,0 // jne 2674 <_sk_load_tables_u16_be_sse2+0x17b>
+ .byte 15,133,101,1,0,0 // jne 266e <_sk_load_tables_u16_be_sse2+0x17b>
.byte 102,67,15,16,4,81 // movupd (%r9,%r10,2),%xmm0
.byte 102,67,15,16,76,81,16 // movupd 0x10(%r9,%r10,2),%xmm1
.byte 65,87 // push %r15
@@ -48172,7 +48191,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,21,42,102,0,0 // movdqa 0x662a(%rip),%xmm10 # 8b70 <_sk_clut_4D_sse2+0x1bc8>
+ .byte 102,68,15,111,21,32,102,0,0 // movdqa 0x6620(%rip),%xmm10 # 8b60 <_sk_clut_4D_sse2+0x1bbe>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -48234,7 +48253,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,21,101,0,0 // mulps 0x6515(%rip),%xmm3 # 8b80 <_sk_clut_4D_sse2+0x1bd8>
+ .byte 15,89,29,11,101,0,0 // mulps 0x650b(%rip),%xmm3 # 8b70 <_sk_clut_4D_sse2+0x1bce>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -48242,17 +48261,17 @@ _sk_load_tables_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,81 // movsd (%r9,%r10,2),%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,17 // jne 2691 <_sk_load_tables_u16_be_sse2+0x198>
+ .byte 117,17 // jne 268b <_sk_load_tables_u16_be_sse2+0x198>
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 251c <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,139,254,255,255 // jmpq 2516 <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,81,8 // movhpd 0x8(%r9,%r10,2),%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,118,254,255,255 // jb 251c <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,118,254,255,255 // jb 2516 <_sk_load_tables_u16_be_sse2+0x23>
.byte 242,67,15,16,76,81,16 // movsd 0x10(%r9,%r10,2),%xmm1
- .byte 233,106,254,255,255 // jmpq 251c <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,106,254,255,255 // jmpq 2516 <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -48262,7 +48281,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,8 // mov (%rax),%r9
.byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,84,1,0,0 // jne 2818 <_sk_load_tables_rgb_u16_be_sse2+0x166>
+ .byte 15,133,84,1,0,0 // jne 2812 <_sk_load_tables_rgb_u16_be_sse2+0x166>
.byte 243,71,15,111,28,81 // movdqu (%r9,%r10,2),%xmm11
.byte 243,67,15,111,76,81,8 // movdqu 0x8(%r9,%r10,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -48277,7 +48296,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
- .byte 102,68,15,111,5,132,100,0,0 // movdqa 0x6484(%rip),%xmm8 # 8b90 <_sk_clut_4D_sse2+0x1be8>
+ .byte 102,68,15,111,5,122,100,0,0 // movdqa 0x647a(%rip),%xmm8 # 8b80 <_sk_clut_4D_sse2+0x1bde>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
@@ -48333,7 +48352,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 15,20,211 // unpcklps %xmm3,%xmm2
.byte 65,15,20,208 // unpcklps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,143,99,0,0 // movaps 0x638f(%rip),%xmm3 # 8ba0 <_sk_clut_4D_sse2+0x1bf8>
+ .byte 15,40,29,133,99,0,0 // movaps 0x6385(%rip),%xmm3 # 8b90 <_sk_clut_4D_sse2+0x1bee>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 65,95 // pop %r15
@@ -48342,21 +48361,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,71,15,196,92,81,4,2 // pinsrw $0x2,0x4(%r9,%r10,2),%xmm11
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,14 // jne 283e <_sk_load_tables_rgb_u16_be_sse2+0x18c>
+ .byte 117,14 // jne 2838 <_sk_load_tables_rgb_u16_be_sse2+0x18c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,172,254,255,255 // jmpq 26ea <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,172,254,255,255 // jmpq 26e4 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,81,6 // movd 0x6(%r9,%r10,2),%xmm10
.byte 102,71,15,196,84,81,10,2 // pinsrw $0x2,0xa(%r9,%r10,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,24 // jb 286f <_sk_load_tables_rgb_u16_be_sse2+0x1bd>
+ .byte 114,24 // jb 2869 <_sk_load_tables_rgb_u16_be_sse2+0x1bd>
.byte 102,67,15,110,76,81,12 // movd 0xc(%r9,%r10,2),%xmm1
.byte 102,67,15,196,76,81,16,2 // pinsrw $0x2,0x10(%r9,%r10,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,123,254,255,255 // jmpq 26ea <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,123,254,255,255 // jmpq 26e4 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,114,254,255,255 // jmpq 26ea <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,114,254,255,255 // jmpq 26e4 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -48367,7 +48386,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,40,99,0,0 // movaps 0x6328(%rip),%xmm8 # 8bb0 <_sk_clut_4D_sse2+0x1c08>
+ .byte 68,15,40,5,30,99,0,0 // movaps 0x631e(%rip),%xmm8 # 8ba0 <_sk_clut_4D_sse2+0x1bfe>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -48395,7 +48414,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,194,98,0,0 // movaps 0x62c2(%rip),%xmm10 # 8bc0 <_sk_clut_4D_sse2+0x1c18>
+ .byte 68,15,40,21,184,98,0,0 // movaps 0x62b8(%rip),%xmm10 # 8bb0 <_sk_clut_4D_sse2+0x1c0e>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -48516,7 +48535,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,10,97,0,0 // movaps 0x610a(%rip),%xmm10 # 8bd0 <_sk_clut_4D_sse2+0x1c28>
+ .byte 68,15,40,21,0,97,0,0 // movaps 0x6100(%rip),%xmm10 # 8bc0 <_sk_clut_4D_sse2+0x1c1e>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -48723,15 +48742,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,62,94,0,0 // mulps 0x5e3e(%rip),%xmm9 # 8be0 <_sk_clut_4D_sse2+0x1c38>
- .byte 68,15,84,21,70,94,0,0 // andps 0x5e46(%rip),%xmm10 # 8bf0 <_sk_clut_4D_sse2+0x1c48>
- .byte 68,15,86,21,78,94,0,0 // orps 0x5e4e(%rip),%xmm10 # 8c00 <_sk_clut_4D_sse2+0x1c58>
- .byte 68,15,88,13,86,94,0,0 // addps 0x5e56(%rip),%xmm9 # 8c10 <_sk_clut_4D_sse2+0x1c68>
- .byte 68,15,40,37,94,94,0,0 // movaps 0x5e5e(%rip),%xmm12 # 8c20 <_sk_clut_4D_sse2+0x1c78>
+ .byte 68,15,89,13,52,94,0,0 // mulps 0x5e34(%rip),%xmm9 # 8bd0 <_sk_clut_4D_sse2+0x1c2e>
+ .byte 68,15,84,21,60,94,0,0 // andps 0x5e3c(%rip),%xmm10 # 8be0 <_sk_clut_4D_sse2+0x1c3e>
+ .byte 68,15,86,21,68,94,0,0 // orps 0x5e44(%rip),%xmm10 # 8bf0 <_sk_clut_4D_sse2+0x1c4e>
+ .byte 68,15,88,13,76,94,0,0 // addps 0x5e4c(%rip),%xmm9 # 8c00 <_sk_clut_4D_sse2+0x1c5e>
+ .byte 68,15,40,37,84,94,0,0 // movaps 0x5e54(%rip),%xmm12 # 8c10 <_sk_clut_4D_sse2+0x1c6e>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,94,94,0,0 // addps 0x5e5e(%rip),%xmm10 # 8c30 <_sk_clut_4D_sse2+0x1c88>
- .byte 68,15,40,37,102,94,0,0 // movaps 0x5e66(%rip),%xmm12 # 8c40 <_sk_clut_4D_sse2+0x1c98>
+ .byte 68,15,88,21,84,94,0,0 // addps 0x5e54(%rip),%xmm10 # 8c20 <_sk_clut_4D_sse2+0x1c7e>
+ .byte 68,15,40,37,92,94,0,0 // movaps 0x5e5c(%rip),%xmm12 # 8c30 <_sk_clut_4D_sse2+0x1c8e>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -48739,22 +48758,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,80,94,0,0 // movaps 0x5e50(%rip),%xmm10 # 8c50 <_sk_clut_4D_sse2+0x1ca8>
+ .byte 68,15,40,21,70,94,0,0 // movaps 0x5e46(%rip),%xmm10 # 8c40 <_sk_clut_4D_sse2+0x1c9e>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,68,94,0,0 // addps 0x5e44(%rip),%xmm9 # 8c60 <_sk_clut_4D_sse2+0x1cb8>
- .byte 68,15,40,37,76,94,0,0 // movaps 0x5e4c(%rip),%xmm12 # 8c70 <_sk_clut_4D_sse2+0x1cc8>
+ .byte 68,15,88,13,58,94,0,0 // addps 0x5e3a(%rip),%xmm9 # 8c50 <_sk_clut_4D_sse2+0x1cae>
+ .byte 68,15,40,37,66,94,0,0 // movaps 0x5e42(%rip),%xmm12 # 8c60 <_sk_clut_4D_sse2+0x1cbe>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,76,94,0,0 // movaps 0x5e4c(%rip),%xmm12 # 8c80 <_sk_clut_4D_sse2+0x1cd8>
+ .byte 68,15,40,37,66,94,0,0 // movaps 0x5e42(%rip),%xmm12 # 8c70 <_sk_clut_4D_sse2+0x1cce>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,80,94,0,0 // movaps 0x5e50(%rip),%xmm13 # 8c90 <_sk_clut_4D_sse2+0x1ce8>
+ .byte 68,15,40,45,70,94,0,0 // movaps 0x5e46(%rip),%xmm13 # 8c80 <_sk_clut_4D_sse2+0x1cde>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,80,94,0,0 // mulps 0x5e50(%rip),%xmm13 # 8ca0 <_sk_clut_4D_sse2+0x1cf8>
+ .byte 68,15,89,45,70,94,0,0 // mulps 0x5e46(%rip),%xmm13 # 8c90 <_sk_clut_4D_sse2+0x1cee>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -48790,15 +48809,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,208,93,0,0 // mulps 0x5dd0(%rip),%xmm9 # 8cb0 <_sk_clut_4D_sse2+0x1d08>
- .byte 68,15,84,21,216,93,0,0 // andps 0x5dd8(%rip),%xmm10 # 8cc0 <_sk_clut_4D_sse2+0x1d18>
- .byte 68,15,86,21,224,93,0,0 // orps 0x5de0(%rip),%xmm10 # 8cd0 <_sk_clut_4D_sse2+0x1d28>
- .byte 68,15,88,13,232,93,0,0 // addps 0x5de8(%rip),%xmm9 # 8ce0 <_sk_clut_4D_sse2+0x1d38>
- .byte 68,15,40,37,240,93,0,0 // movaps 0x5df0(%rip),%xmm12 # 8cf0 <_sk_clut_4D_sse2+0x1d48>
+ .byte 68,15,89,13,198,93,0,0 // mulps 0x5dc6(%rip),%xmm9 # 8ca0 <_sk_clut_4D_sse2+0x1cfe>
+ .byte 68,15,84,21,206,93,0,0 // andps 0x5dce(%rip),%xmm10 # 8cb0 <_sk_clut_4D_sse2+0x1d0e>
+ .byte 68,15,86,21,214,93,0,0 // orps 0x5dd6(%rip),%xmm10 # 8cc0 <_sk_clut_4D_sse2+0x1d1e>
+ .byte 68,15,88,13,222,93,0,0 // addps 0x5dde(%rip),%xmm9 # 8cd0 <_sk_clut_4D_sse2+0x1d2e>
+ .byte 68,15,40,37,230,93,0,0 // movaps 0x5de6(%rip),%xmm12 # 8ce0 <_sk_clut_4D_sse2+0x1d3e>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,240,93,0,0 // addps 0x5df0(%rip),%xmm10 # 8d00 <_sk_clut_4D_sse2+0x1d58>
- .byte 68,15,40,37,248,93,0,0 // movaps 0x5df8(%rip),%xmm12 # 8d10 <_sk_clut_4D_sse2+0x1d68>
+ .byte 68,15,88,21,230,93,0,0 // addps 0x5de6(%rip),%xmm10 # 8cf0 <_sk_clut_4D_sse2+0x1d4e>
+ .byte 68,15,40,37,238,93,0,0 // movaps 0x5dee(%rip),%xmm12 # 8d00 <_sk_clut_4D_sse2+0x1d5e>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -48806,22 +48825,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,226,93,0,0 // movaps 0x5de2(%rip),%xmm10 # 8d20 <_sk_clut_4D_sse2+0x1d78>
+ .byte 68,15,40,21,216,93,0,0 // movaps 0x5dd8(%rip),%xmm10 # 8d10 <_sk_clut_4D_sse2+0x1d6e>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,214,93,0,0 // addps 0x5dd6(%rip),%xmm9 # 8d30 <_sk_clut_4D_sse2+0x1d88>
- .byte 68,15,40,37,222,93,0,0 // movaps 0x5dde(%rip),%xmm12 # 8d40 <_sk_clut_4D_sse2+0x1d98>
+ .byte 68,15,88,13,204,93,0,0 // addps 0x5dcc(%rip),%xmm9 # 8d20 <_sk_clut_4D_sse2+0x1d7e>
+ .byte 68,15,40,37,212,93,0,0 // movaps 0x5dd4(%rip),%xmm12 # 8d30 <_sk_clut_4D_sse2+0x1d8e>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,222,93,0,0 // movaps 0x5dde(%rip),%xmm12 # 8d50 <_sk_clut_4D_sse2+0x1da8>
+ .byte 68,15,40,37,212,93,0,0 // movaps 0x5dd4(%rip),%xmm12 # 8d40 <_sk_clut_4D_sse2+0x1d9e>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,226,93,0,0 // movaps 0x5de2(%rip),%xmm13 # 8d60 <_sk_clut_4D_sse2+0x1db8>
+ .byte 68,15,40,45,216,93,0,0 // movaps 0x5dd8(%rip),%xmm13 # 8d50 <_sk_clut_4D_sse2+0x1dae>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,226,93,0,0 // mulps 0x5de2(%rip),%xmm13 # 8d70 <_sk_clut_4D_sse2+0x1dc8>
+ .byte 68,15,89,45,216,93,0,0 // mulps 0x5dd8(%rip),%xmm13 # 8d60 <_sk_clut_4D_sse2+0x1dbe>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -48857,15 +48876,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,98,93,0,0 // mulps 0x5d62(%rip),%xmm9 # 8d80 <_sk_clut_4D_sse2+0x1dd8>
- .byte 68,15,84,21,106,93,0,0 // andps 0x5d6a(%rip),%xmm10 # 8d90 <_sk_clut_4D_sse2+0x1de8>
- .byte 68,15,86,21,114,93,0,0 // orps 0x5d72(%rip),%xmm10 # 8da0 <_sk_clut_4D_sse2+0x1df8>
- .byte 68,15,88,13,122,93,0,0 // addps 0x5d7a(%rip),%xmm9 # 8db0 <_sk_clut_4D_sse2+0x1e08>
- .byte 68,15,40,37,130,93,0,0 // movaps 0x5d82(%rip),%xmm12 # 8dc0 <_sk_clut_4D_sse2+0x1e18>
+ .byte 68,15,89,13,88,93,0,0 // mulps 0x5d58(%rip),%xmm9 # 8d70 <_sk_clut_4D_sse2+0x1dce>
+ .byte 68,15,84,21,96,93,0,0 // andps 0x5d60(%rip),%xmm10 # 8d80 <_sk_clut_4D_sse2+0x1dde>
+ .byte 68,15,86,21,104,93,0,0 // orps 0x5d68(%rip),%xmm10 # 8d90 <_sk_clut_4D_sse2+0x1dee>
+ .byte 68,15,88,13,112,93,0,0 // addps 0x5d70(%rip),%xmm9 # 8da0 <_sk_clut_4D_sse2+0x1dfe>
+ .byte 68,15,40,37,120,93,0,0 // movaps 0x5d78(%rip),%xmm12 # 8db0 <_sk_clut_4D_sse2+0x1e0e>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,130,93,0,0 // addps 0x5d82(%rip),%xmm10 # 8dd0 <_sk_clut_4D_sse2+0x1e28>
- .byte 68,15,40,37,138,93,0,0 // movaps 0x5d8a(%rip),%xmm12 # 8de0 <_sk_clut_4D_sse2+0x1e38>
+ .byte 68,15,88,21,120,93,0,0 // addps 0x5d78(%rip),%xmm10 # 8dc0 <_sk_clut_4D_sse2+0x1e1e>
+ .byte 68,15,40,37,128,93,0,0 // movaps 0x5d80(%rip),%xmm12 # 8dd0 <_sk_clut_4D_sse2+0x1e2e>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -48873,22 +48892,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,116,93,0,0 // movaps 0x5d74(%rip),%xmm10 # 8df0 <_sk_clut_4D_sse2+0x1e48>
+ .byte 68,15,40,21,106,93,0,0 // movaps 0x5d6a(%rip),%xmm10 # 8de0 <_sk_clut_4D_sse2+0x1e3e>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,104,93,0,0 // addps 0x5d68(%rip),%xmm9 # 8e00 <_sk_clut_4D_sse2+0x1e58>
- .byte 68,15,40,37,112,93,0,0 // movaps 0x5d70(%rip),%xmm12 # 8e10 <_sk_clut_4D_sse2+0x1e68>
+ .byte 68,15,88,13,94,93,0,0 // addps 0x5d5e(%rip),%xmm9 # 8df0 <_sk_clut_4D_sse2+0x1e4e>
+ .byte 68,15,40,37,102,93,0,0 // movaps 0x5d66(%rip),%xmm12 # 8e00 <_sk_clut_4D_sse2+0x1e5e>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,112,93,0,0 // movaps 0x5d70(%rip),%xmm12 # 8e20 <_sk_clut_4D_sse2+0x1e78>
+ .byte 68,15,40,37,102,93,0,0 // movaps 0x5d66(%rip),%xmm12 # 8e10 <_sk_clut_4D_sse2+0x1e6e>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,116,93,0,0 // movaps 0x5d74(%rip),%xmm13 # 8e30 <_sk_clut_4D_sse2+0x1e88>
+ .byte 68,15,40,45,106,93,0,0 // movaps 0x5d6a(%rip),%xmm13 # 8e20 <_sk_clut_4D_sse2+0x1e7e>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,116,93,0,0 // mulps 0x5d74(%rip),%xmm13 # 8e40 <_sk_clut_4D_sse2+0x1e98>
+ .byte 68,15,89,45,106,93,0,0 // mulps 0x5d6a(%rip),%xmm13 # 8e30 <_sk_clut_4D_sse2+0x1e8e>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -48924,15 +48943,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,244,92,0,0 // mulps 0x5cf4(%rip),%xmm9 # 8e50 <_sk_clut_4D_sse2+0x1ea8>
- .byte 68,15,84,21,252,92,0,0 // andps 0x5cfc(%rip),%xmm10 # 8e60 <_sk_clut_4D_sse2+0x1eb8>
- .byte 68,15,86,21,4,93,0,0 // orps 0x5d04(%rip),%xmm10 # 8e70 <_sk_clut_4D_sse2+0x1ec8>
- .byte 68,15,88,13,12,93,0,0 // addps 0x5d0c(%rip),%xmm9 # 8e80 <_sk_clut_4D_sse2+0x1ed8>
- .byte 68,15,40,37,20,93,0,0 // movaps 0x5d14(%rip),%xmm12 # 8e90 <_sk_clut_4D_sse2+0x1ee8>
+ .byte 68,15,89,13,234,92,0,0 // mulps 0x5cea(%rip),%xmm9 # 8e40 <_sk_clut_4D_sse2+0x1e9e>
+ .byte 68,15,84,21,242,92,0,0 // andps 0x5cf2(%rip),%xmm10 # 8e50 <_sk_clut_4D_sse2+0x1eae>
+ .byte 68,15,86,21,250,92,0,0 // orps 0x5cfa(%rip),%xmm10 # 8e60 <_sk_clut_4D_sse2+0x1ebe>
+ .byte 68,15,88,13,2,93,0,0 // addps 0x5d02(%rip),%xmm9 # 8e70 <_sk_clut_4D_sse2+0x1ece>
+ .byte 68,15,40,37,10,93,0,0 // movaps 0x5d0a(%rip),%xmm12 # 8e80 <_sk_clut_4D_sse2+0x1ede>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,20,93,0,0 // addps 0x5d14(%rip),%xmm10 # 8ea0 <_sk_clut_4D_sse2+0x1ef8>
- .byte 68,15,40,37,28,93,0,0 // movaps 0x5d1c(%rip),%xmm12 # 8eb0 <_sk_clut_4D_sse2+0x1f08>
+ .byte 68,15,88,21,10,93,0,0 // addps 0x5d0a(%rip),%xmm10 # 8e90 <_sk_clut_4D_sse2+0x1eee>
+ .byte 68,15,40,37,18,93,0,0 // movaps 0x5d12(%rip),%xmm12 # 8ea0 <_sk_clut_4D_sse2+0x1efe>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -48940,22 +48959,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,6,93,0,0 // movaps 0x5d06(%rip),%xmm10 # 8ec0 <_sk_clut_4D_sse2+0x1f18>
+ .byte 68,15,40,21,252,92,0,0 // movaps 0x5cfc(%rip),%xmm10 # 8eb0 <_sk_clut_4D_sse2+0x1f0e>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,250,92,0,0 // addps 0x5cfa(%rip),%xmm9 # 8ed0 <_sk_clut_4D_sse2+0x1f28>
- .byte 68,15,40,37,2,93,0,0 // movaps 0x5d02(%rip),%xmm12 # 8ee0 <_sk_clut_4D_sse2+0x1f38>
+ .byte 68,15,88,13,240,92,0,0 // addps 0x5cf0(%rip),%xmm9 # 8ec0 <_sk_clut_4D_sse2+0x1f1e>
+ .byte 68,15,40,37,248,92,0,0 // movaps 0x5cf8(%rip),%xmm12 # 8ed0 <_sk_clut_4D_sse2+0x1f2e>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,2,93,0,0 // movaps 0x5d02(%rip),%xmm12 # 8ef0 <_sk_clut_4D_sse2+0x1f48>
+ .byte 68,15,40,37,248,92,0,0 // movaps 0x5cf8(%rip),%xmm12 # 8ee0 <_sk_clut_4D_sse2+0x1f3e>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,6,93,0,0 // movaps 0x5d06(%rip),%xmm13 # 8f00 <_sk_clut_4D_sse2+0x1f58>
+ .byte 68,15,40,45,252,92,0,0 // movaps 0x5cfc(%rip),%xmm13 # 8ef0 <_sk_clut_4D_sse2+0x1f4e>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,6,93,0,0 // mulps 0x5d06(%rip),%xmm13 # 8f10 <_sk_clut_4D_sse2+0x1f68>
+ .byte 68,15,89,45,252,92,0,0 // mulps 0x5cfc(%rip),%xmm13 # 8f00 <_sk_clut_4D_sse2+0x1f5e>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -48980,19 +48999,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,193,92,0,0 // mulps 0x5cc1(%rip),%xmm0 # 8f20 <_sk_clut_4D_sse2+0x1f78>
- .byte 15,84,21,202,92,0,0 // andps 0x5cca(%rip),%xmm2 # 8f30 <_sk_clut_4D_sse2+0x1f88>
- .byte 68,15,40,53,210,92,0,0 // movaps 0x5cd2(%rip),%xmm14 # 8f40 <_sk_clut_4D_sse2+0x1f98>
+ .byte 15,89,5,183,92,0,0 // mulps 0x5cb7(%rip),%xmm0 # 8f10 <_sk_clut_4D_sse2+0x1f6e>
+ .byte 15,84,21,192,92,0,0 // andps 0x5cc0(%rip),%xmm2 # 8f20 <_sk_clut_4D_sse2+0x1f7e>
+ .byte 68,15,40,53,200,92,0,0 // movaps 0x5cc8(%rip),%xmm14 # 8f30 <_sk_clut_4D_sse2+0x1f8e>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,214,92,0,0 // movaps 0x5cd6(%rip),%xmm12 # 8f50 <_sk_clut_4D_sse2+0x1fa8>
+ .byte 68,15,40,37,204,92,0,0 // movaps 0x5ccc(%rip),%xmm12 # 8f40 <_sk_clut_4D_sse2+0x1f9e>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,218,92,0,0 // movaps 0x5cda(%rip),%xmm11 # 8f60 <_sk_clut_4D_sse2+0x1fb8>
+ .byte 68,15,40,29,208,92,0,0 // movaps 0x5cd0(%rip),%xmm11 # 8f50 <_sk_clut_4D_sse2+0x1fae>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,216,92,0,0 // movaps 0x5cd8(%rip),%xmm10 # 8f70 <_sk_clut_4D_sse2+0x1fc8>
+ .byte 68,15,40,21,206,92,0,0 // movaps 0x5cce(%rip),%xmm10 # 8f60 <_sk_clut_4D_sse2+0x1fbe>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,220,92,0,0 // movaps 0x5cdc(%rip),%xmm13 # 8f80 <_sk_clut_4D_sse2+0x1fd8>
+ .byte 68,15,40,45,210,92,0,0 // movaps 0x5cd2(%rip),%xmm13 # 8f70 <_sk_clut_4D_sse2+0x1fce>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49004,27 +49023,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,188,92,0,0 // movaps 0x5cbc(%rip),%xmm9 # 8f90 <_sk_clut_4D_sse2+0x1fe8>
+ .byte 68,15,40,13,178,92,0,0 // movaps 0x5cb2(%rip),%xmm9 # 8f80 <_sk_clut_4D_sse2+0x1fde>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,184,92,0,0 // movaps 0x5cb8(%rip),%xmm6 # 8fa0 <_sk_clut_4D_sse2+0x1ff8>
+ .byte 15,40,53,174,92,0,0 // movaps 0x5cae(%rip),%xmm6 # 8f90 <_sk_clut_4D_sse2+0x1fee>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,206,92,0,0 // movaps 0x5cce(%rip),%xmm7 # 8fc0 <_sk_clut_4D_sse2+0x2018>
+ .byte 15,40,61,196,92,0,0 // movaps 0x5cc4(%rip),%xmm7 # 8fb0 <_sk_clut_4D_sse2+0x200e>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,174,92,0,0 // movaps 0x5cae(%rip),%xmm4 # 8fb0 <_sk_clut_4D_sse2+0x2008>
+ .byte 15,40,37,164,92,0,0 // movaps 0x5ca4(%rip),%xmm4 # 8fa0 <_sk_clut_4D_sse2+0x1ffe>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,192,92,0,0 // movaps 0x5cc0(%rip),%xmm15 # 8fd0 <_sk_clut_4D_sse2+0x2028>
+ .byte 68,15,40,61,182,92,0,0 // movaps 0x5cb6(%rip),%xmm15 # 8fc0 <_sk_clut_4D_sse2+0x201e>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,252,91,0,0 // mulps 0x5bfc(%rip),%xmm0 # 8f20 <_sk_clut_4D_sse2+0x1f78>
- .byte 15,84,13,5,92,0,0 // andps 0x5c05(%rip),%xmm1 # 8f30 <_sk_clut_4D_sse2+0x1f88>
+ .byte 15,89,5,242,91,0,0 // mulps 0x5bf2(%rip),%xmm0 # 8f10 <_sk_clut_4D_sse2+0x1f6e>
+ .byte 15,84,13,251,91,0,0 // andps 0x5bfb(%rip),%xmm1 # 8f20 <_sk_clut_4D_sse2+0x1f7e>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -49054,9 +49073,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,139,91,0,0 // mulps 0x5b8b(%rip),%xmm0 # 8f20 <_sk_clut_4D_sse2+0x1f78>
- .byte 15,84,29,148,91,0,0 // andps 0x5b94(%rip),%xmm3 # 8f30 <_sk_clut_4D_sse2+0x1f88>
- .byte 15,86,29,157,91,0,0 // orps 0x5b9d(%rip),%xmm3 # 8f40 <_sk_clut_4D_sse2+0x1f98>
+ .byte 15,89,5,129,91,0,0 // mulps 0x5b81(%rip),%xmm0 # 8f10 <_sk_clut_4D_sse2+0x1f6e>
+ .byte 15,84,29,138,91,0,0 // andps 0x5b8a(%rip),%xmm3 # 8f20 <_sk_clut_4D_sse2+0x1f7e>
+ .byte 15,86,29,147,91,0,0 // orps 0x5b93(%rip),%xmm3 # 8f30 <_sk_clut_4D_sse2+0x1f8e>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -49078,7 +49097,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,234,91,0,0 // movaps 0x5bea(%rip),%xmm0 # 8fe0 <_sk_clut_4D_sse2+0x2038>
+ .byte 15,40,5,224,91,0,0 // movaps 0x5be0(%rip),%xmm0 # 8fd0 <_sk_clut_4D_sse2+0x202e>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -49097,29 +49116,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,191,91,0,0 // mulps 0x5bbf(%rip),%xmm0 # 8ff0 <_sk_clut_4D_sse2+0x2048>
- .byte 68,15,40,5,199,91,0,0 // movaps 0x5bc7(%rip),%xmm8 # 9000 <_sk_clut_4D_sse2+0x2058>
+ .byte 15,89,5,181,91,0,0 // mulps 0x5bb5(%rip),%xmm0 # 8fe0 <_sk_clut_4D_sse2+0x203e>
+ .byte 68,15,40,5,189,91,0,0 // movaps 0x5bbd(%rip),%xmm8 # 8ff0 <_sk_clut_4D_sse2+0x204e>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,203,91,0,0 // movaps 0x5bcb(%rip),%xmm9 # 9010 <_sk_clut_4D_sse2+0x2068>
+ .byte 68,15,40,13,193,91,0,0 // movaps 0x5bc1(%rip),%xmm9 # 9000 <_sk_clut_4D_sse2+0x205e>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,200,91,0,0 // addps 0x5bc8(%rip),%xmm0 # 9020 <_sk_clut_4D_sse2+0x2078>
- .byte 15,89,5,209,91,0,0 // mulps 0x5bd1(%rip),%xmm0 # 9030 <_sk_clut_4D_sse2+0x2088>
- .byte 15,89,13,218,91,0,0 // mulps 0x5bda(%rip),%xmm1 # 9040 <_sk_clut_4D_sse2+0x2098>
+ .byte 15,88,5,190,91,0,0 // addps 0x5bbe(%rip),%xmm0 # 9010 <_sk_clut_4D_sse2+0x206e>
+ .byte 15,89,5,199,91,0,0 // mulps 0x5bc7(%rip),%xmm0 # 9020 <_sk_clut_4D_sse2+0x207e>
+ .byte 15,89,13,208,91,0,0 // mulps 0x5bd0(%rip),%xmm1 # 9030 <_sk_clut_4D_sse2+0x208e>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,224,91,0,0 // mulps 0x5be0(%rip),%xmm2 # 9050 <_sk_clut_4D_sse2+0x20a8>
+ .byte 15,89,21,214,91,0,0 // mulps 0x5bd6(%rip),%xmm2 # 9040 <_sk_clut_4D_sse2+0x209e>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,213,91,0,0 // movaps 0x5bd5(%rip),%xmm2 # 9060 <_sk_clut_4D_sse2+0x20b8>
+ .byte 15,40,21,203,91,0,0 // movaps 0x5bcb(%rip),%xmm2 # 9050 <_sk_clut_4D_sse2+0x20ae>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,212,91,0,0 // movaps 0x5bd4(%rip),%xmm10 # 9070 <_sk_clut_4D_sse2+0x20c8>
+ .byte 68,15,40,21,202,91,0,0 // movaps 0x5bca(%rip),%xmm10 # 9060 <_sk_clut_4D_sse2+0x20be>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,216,91,0,0 // movaps 0x5bd8(%rip),%xmm11 # 9080 <_sk_clut_4D_sse2+0x20d8>
+ .byte 68,15,40,29,206,91,0,0 // movaps 0x5bce(%rip),%xmm11 # 9070 <_sk_clut_4D_sse2+0x20ce>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -49143,8 +49162,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,136,91,0,0 // mulps 0x5b88(%rip),%xmm8 # 9090 <_sk_clut_4D_sse2+0x20e8>
- .byte 15,89,21,145,91,0,0 // mulps 0x5b91(%rip),%xmm2 # 90a0 <_sk_clut_4D_sse2+0x20f8>
+ .byte 68,15,89,5,126,91,0,0 // mulps 0x5b7e(%rip),%xmm8 # 9080 <_sk_clut_4D_sse2+0x20de>
+ .byte 15,89,21,135,91,0,0 // mulps 0x5b87(%rip),%xmm2 # 9090 <_sk_clut_4D_sse2+0x20ee>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -49160,13 +49179,13 @@ _sk_load_a8_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,46 // jne 355d <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 3557 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,25 // movd (%r9,%r11,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,107,91,0,0 // pand 0x5b6b(%rip),%xmm0 # 90b0 <_sk_clut_4D_sse2+0x2108>
+ .byte 102,15,219,5,97,91,0,0 // pand 0x5b61(%rip),%xmm0 # 90a0 <_sk_clut_4D_sse2+0x20fe>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,113,91,0,0 // mulps 0x5b71(%rip),%xmm3 # 90c0 <_sk_clut_4D_sse2+0x2118>
+ .byte 15,89,29,103,91,0,0 // mulps 0x5b67(%rip),%xmm3 # 90b0 <_sk_clut_4D_sse2+0x210e>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -49175,12 +49194,12 @@ _sk_load_a8_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,54 // je 35a0 <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 359a <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3589 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 3583 <_sk_load_a8_sse2+0x72>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,195 // jne 353d <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 3537 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -49189,10 +49208,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 353d <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 3537 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 353d <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 3537 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -49205,13 +49224,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,46 // jne 35f1 <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 35eb <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,25 // movd (%r9,%r11,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,247,90,0,0 // pand 0x5af7(%rip),%xmm4 # 90d0 <_sk_clut_4D_sse2+0x2128>
+ .byte 102,15,219,37,237,90,0,0 // pand 0x5aed(%rip),%xmm4 # 90c0 <_sk_clut_4D_sse2+0x211e>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,253,90,0,0 // mulps 0x5afd(%rip),%xmm7 # 90e0 <_sk_clut_4D_sse2+0x2138>
+ .byte 15,89,61,243,90,0,0 // mulps 0x5af3(%rip),%xmm7 # 90d0 <_sk_clut_4D_sse2+0x212e>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -49220,12 +49239,12 @@ _sk_load_a8_dst_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,54 // je 3634 <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 362e <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 361d <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 3617 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,195 // jne 35d1 <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 35cb <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -49234,10 +49253,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 35d1 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 35cb <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 35d1 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 35cb <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -49279,7 +49298,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,30,90,0,0 // mulps 0x5a1e(%rip),%xmm3 # 90f0 <_sk_clut_4D_sse2+0x2148>
+ .byte 15,89,29,20,90,0,0 // mulps 0x5a14(%rip),%xmm3 # 90e0 <_sk_clut_4D_sse2+0x213e>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -49298,7 +49317,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,202 // imul %r10,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
- .byte 68,15,40,5,2,90,0,0 // movaps 0x5a02(%rip),%xmm8 # 9100 <_sk_clut_4D_sse2+0x2158>
+ .byte 68,15,40,5,248,89,0,0 // movaps 0x59f8(%rip),%xmm8 # 90f0 <_sk_clut_4D_sse2+0x214e>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -49306,7 +49325,7 @@ _sk_store_a8_sse2:
.byte 102,69,15,107,192 // packssdw %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,13 // jne 372f <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 3729 <_sk_store_a8_sse2+0x4c>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,25 // mov %eax,(%r9,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49316,24 +49335,24 @@ _sk_store_a8_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,59 // je 3781 <_sk_store_a8_sse2+0x9e>
+ .byte 116,59 // je 377b <_sk_store_a8_sse2+0x9e>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,22 // je 3762 <_sk_store_a8_sse2+0x7f>
+ .byte 116,22 // je 375c <_sk_store_a8_sse2+0x7f>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,217 // jne 372b <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 3725 <_sk_store_a8_sse2+0x48>
.byte 102,68,15,127,68,36,232 // movdqa %xmm8,-0x18(%rsp)
.byte 138,68,36,240 // mov -0x10(%rsp),%al
.byte 67,136,68,25,2 // mov %al,0x2(%r9,%r11,1)
- .byte 102,68,15,219,5,165,89,0,0 // pand 0x59a5(%rip),%xmm8 # 9110 <_sk_clut_4D_sse2+0x2168>
+ .byte 102,68,15,219,5,155,89,0,0 // pand 0x599b(%rip),%xmm8 # 9100 <_sk_clut_4D_sse2+0x215e>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,25 // mov %ax,(%r9,%r11,1)
- .byte 235,170 // jmp 372b <_sk_store_a8_sse2+0x48>
+ .byte 235,170 // jmp 3725 <_sk_store_a8_sse2+0x48>
.byte 102,68,15,127,68,36,216 // movdqa %xmm8,-0x28(%rsp)
.byte 138,68,36,216 // mov -0x28(%rsp),%al
.byte 67,136,4,25 // mov %al,(%r9,%r11,1)
- .byte 235,153 // jmp 372b <_sk_store_a8_sse2+0x48>
+ .byte 235,153 // jmp 3725 <_sk_store_a8_sse2+0x48>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -49346,27 +49365,27 @@ _sk_load_g8_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,49 // jne 37db <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 37d5 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,25 // movd (%r9,%r11,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,96,89,0,0 // pand 0x5960(%rip),%xmm0 # 9120 <_sk_clut_4D_sse2+0x2178>
+ .byte 102,15,219,5,86,89,0,0 // pand 0x5956(%rip),%xmm0 # 9110 <_sk_clut_4D_sse2+0x216e>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,102,89,0,0 // mulps 0x5966(%rip),%xmm0 # 9130 <_sk_clut_4D_sse2+0x2188>
+ .byte 15,89,5,92,89,0,0 // mulps 0x595c(%rip),%xmm0 # 9120 <_sk_clut_4D_sse2+0x217e>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,109,89,0,0 // movaps 0x596d(%rip),%xmm3 # 9140 <_sk_clut_4D_sse2+0x2198>
+ .byte 15,40,29,99,89,0,0 // movaps 0x5963(%rip),%xmm3 # 9130 <_sk_clut_4D_sse2+0x218e>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,54 // je 381e <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 3818 <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3807 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 3801 <_sk_load_g8_sse2+0x75>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,192 // jne 37b8 <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 37b2 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -49375,10 +49394,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 37b8 <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 37b2 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 37b8 <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 37b2 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -49391,27 +49410,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,49 // jne 3872 <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 386c <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,25 // movd (%r9,%r11,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,249,88,0,0 // pand 0x58f9(%rip),%xmm4 # 9150 <_sk_clut_4D_sse2+0x21a8>
+ .byte 102,15,219,37,239,88,0,0 // pand 0x58ef(%rip),%xmm4 # 9140 <_sk_clut_4D_sse2+0x219e>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,255,88,0,0 // mulps 0x58ff(%rip),%xmm4 # 9160 <_sk_clut_4D_sse2+0x21b8>
+ .byte 15,89,37,245,88,0,0 // mulps 0x58f5(%rip),%xmm4 # 9150 <_sk_clut_4D_sse2+0x21ae>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,6,89,0,0 // movaps 0x5906(%rip),%xmm7 # 9170 <_sk_clut_4D_sse2+0x21c8>
+ .byte 15,40,61,252,88,0,0 // movaps 0x58fc(%rip),%xmm7 # 9160 <_sk_clut_4D_sse2+0x21be>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,54 // je 38b5 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 38af <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 389e <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 3898 <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,192 // jne 384f <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 3849 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -49420,10 +49439,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 384f <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 3849 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 384f <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 3849 <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -49465,9 +49484,9 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,45,88,0,0 // mulps 0x582d(%rip),%xmm0 # 9180 <_sk_clut_4D_sse2+0x21d8>
+ .byte 15,89,5,35,88,0,0 // mulps 0x5823(%rip),%xmm0 # 9170 <_sk_clut_4D_sse2+0x21ce>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,52,88,0,0 // movaps 0x5834(%rip),%xmm3 # 9190 <_sk_clut_4D_sse2+0x21e8>
+ .byte 15,40,29,42,88,0,0 // movaps 0x582a(%rip),%xmm3 # 9180 <_sk_clut_4D_sse2+0x21de>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -49486,42 +49505,42 @@ _sk_load_565_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,83 // jne 39d4 <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 39ce <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,89 // movq (%r9,%r11,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,13,88,0,0 // movdqa 0x580d(%rip),%xmm0 # 91a0 <_sk_clut_4D_sse2+0x21f8>
+ .byte 102,15,111,5,3,88,0,0 // movdqa 0x5803(%rip),%xmm0 # 9190 <_sk_clut_4D_sse2+0x21ee>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,15,88,0,0 // mulps 0x580f(%rip),%xmm0 # 91b0 <_sk_clut_4D_sse2+0x2208>
- .byte 102,15,111,13,23,88,0,0 // movdqa 0x5817(%rip),%xmm1 # 91c0 <_sk_clut_4D_sse2+0x2218>
+ .byte 15,89,5,5,88,0,0 // mulps 0x5805(%rip),%xmm0 # 91a0 <_sk_clut_4D_sse2+0x21fe>
+ .byte 102,15,111,13,13,88,0,0 // movdqa 0x580d(%rip),%xmm1 # 91b0 <_sk_clut_4D_sse2+0x220e>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,25,88,0,0 // mulps 0x5819(%rip),%xmm1 # 91d0 <_sk_clut_4D_sse2+0x2228>
- .byte 102,15,219,21,33,88,0,0 // pand 0x5821(%rip),%xmm2 # 91e0 <_sk_clut_4D_sse2+0x2238>
+ .byte 15,89,13,15,88,0,0 // mulps 0x580f(%rip),%xmm1 # 91c0 <_sk_clut_4D_sse2+0x221e>
+ .byte 102,15,219,21,23,88,0,0 // pand 0x5817(%rip),%xmm2 # 91d0 <_sk_clut_4D_sse2+0x222e>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,39,88,0,0 // mulps 0x5827(%rip),%xmm2 # 91f0 <_sk_clut_4D_sse2+0x2248>
+ .byte 15,89,21,29,88,0,0 // mulps 0x581d(%rip),%xmm2 # 91e0 <_sk_clut_4D_sse2+0x223e>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,46,88,0,0 // movaps 0x582e(%rip),%xmm3 # 9200 <_sk_clut_4D_sse2+0x2258>
+ .byte 15,40,29,36,88,0,0 // movaps 0x5824(%rip),%xmm3 # 91f0 <_sk_clut_4D_sse2+0x224e>
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,50 // je 3a13 <_sk_load_565_sse2+0xad>
+ .byte 116,50 // je 3a0d <_sk_load_565_sse2+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3a00 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 39fa <_sk_load_565_sse2+0x9a>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,154 // jne 398b <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 3985 <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,120,255,255,255 // jmpq 398b <_sk_load_565_sse2+0x25>
+ .byte 233,120,255,255,255 // jmpq 3985 <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,106,255,255,255 // jmpq 398b <_sk_load_565_sse2+0x25>
+ .byte 233,106,255,255,255 // jmpq 3985 <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -49535,42 +49554,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,83 // jne 3a8f <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 3a89 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,89 // movq (%r9,%r11,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,194,87,0,0 // movdqa 0x57c2(%rip),%xmm4 # 9210 <_sk_clut_4D_sse2+0x2268>
+ .byte 102,15,111,37,184,87,0,0 // movdqa 0x57b8(%rip),%xmm4 # 9200 <_sk_clut_4D_sse2+0x225e>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,196,87,0,0 // mulps 0x57c4(%rip),%xmm4 # 9220 <_sk_clut_4D_sse2+0x2278>
- .byte 102,15,111,45,204,87,0,0 // movdqa 0x57cc(%rip),%xmm5 # 9230 <_sk_clut_4D_sse2+0x2288>
+ .byte 15,89,37,186,87,0,0 // mulps 0x57ba(%rip),%xmm4 # 9210 <_sk_clut_4D_sse2+0x226e>
+ .byte 102,15,111,45,194,87,0,0 // movdqa 0x57c2(%rip),%xmm5 # 9220 <_sk_clut_4D_sse2+0x227e>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,206,87,0,0 // mulps 0x57ce(%rip),%xmm5 # 9240 <_sk_clut_4D_sse2+0x2298>
- .byte 102,15,219,53,214,87,0,0 // pand 0x57d6(%rip),%xmm6 # 9250 <_sk_clut_4D_sse2+0x22a8>
+ .byte 15,89,45,196,87,0,0 // mulps 0x57c4(%rip),%xmm5 # 9230 <_sk_clut_4D_sse2+0x228e>
+ .byte 102,15,219,53,204,87,0,0 // pand 0x57cc(%rip),%xmm6 # 9240 <_sk_clut_4D_sse2+0x229e>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,220,87,0,0 // mulps 0x57dc(%rip),%xmm6 # 9260 <_sk_clut_4D_sse2+0x22b8>
+ .byte 15,89,53,210,87,0,0 // mulps 0x57d2(%rip),%xmm6 # 9250 <_sk_clut_4D_sse2+0x22ae>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,227,87,0,0 // movaps 0x57e3(%rip),%xmm7 # 9270 <_sk_clut_4D_sse2+0x22c8>
+ .byte 15,40,61,217,87,0,0 // movaps 0x57d9(%rip),%xmm7 # 9260 <_sk_clut_4D_sse2+0x22be>
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,50 // je 3ace <_sk_load_565_dst_sse2+0xad>
+ .byte 116,50 // je 3ac8 <_sk_load_565_dst_sse2+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3abb <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 3ab5 <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,154 // jne 3a46 <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 3a40 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,120,255,255,255 // jmpq 3a46 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,120,255,255,255 // jmpq 3a40 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,106,255,255,255 // jmpq 3a46 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,106,255,255,255 // jmpq 3a40 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -49605,19 +49624,19 @@ _sk_gather_565_sse2:
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,30,87,0,0 // movdqa 0x571e(%rip),%xmm0 # 9280 <_sk_clut_4D_sse2+0x22d8>
+ .byte 102,15,111,5,20,87,0,0 // movdqa 0x5714(%rip),%xmm0 # 9270 <_sk_clut_4D_sse2+0x22ce>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,32,87,0,0 // mulps 0x5720(%rip),%xmm0 # 9290 <_sk_clut_4D_sse2+0x22e8>
- .byte 102,15,111,13,40,87,0,0 // movdqa 0x5728(%rip),%xmm1 # 92a0 <_sk_clut_4D_sse2+0x22f8>
+ .byte 15,89,5,22,87,0,0 // mulps 0x5716(%rip),%xmm0 # 9280 <_sk_clut_4D_sse2+0x22de>
+ .byte 102,15,111,13,30,87,0,0 // movdqa 0x571e(%rip),%xmm1 # 9290 <_sk_clut_4D_sse2+0x22ee>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,42,87,0,0 // mulps 0x572a(%rip),%xmm1 # 92b0 <_sk_clut_4D_sse2+0x2308>
- .byte 102,15,219,21,50,87,0,0 // pand 0x5732(%rip),%xmm2 # 92c0 <_sk_clut_4D_sse2+0x2318>
+ .byte 15,89,13,32,87,0,0 // mulps 0x5720(%rip),%xmm1 # 92a0 <_sk_clut_4D_sse2+0x22fe>
+ .byte 102,15,219,21,40,87,0,0 // pand 0x5728(%rip),%xmm2 # 92b0 <_sk_clut_4D_sse2+0x230e>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,56,87,0,0 // mulps 0x5738(%rip),%xmm2 # 92d0 <_sk_clut_4D_sse2+0x2328>
+ .byte 15,89,21,46,87,0,0 // mulps 0x572e(%rip),%xmm2 # 92c0 <_sk_clut_4D_sse2+0x231e>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,63,87,0,0 // movaps 0x573f(%rip),%xmm3 # 92e0 <_sk_clut_4D_sse2+0x2338>
+ .byte 15,40,29,53,87,0,0 // movaps 0x5735(%rip),%xmm3 # 92d0 <_sk_clut_4D_sse2+0x232e>
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
@@ -49632,12 +49651,12 @@ _sk_store_565_sse2:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
- .byte 68,15,40,5,46,87,0,0 // movaps 0x572e(%rip),%xmm8 # 92f0 <_sk_clut_4D_sse2+0x2348>
+ .byte 68,15,40,5,36,87,0,0 // movaps 0x5724(%rip),%xmm8 # 92e0 <_sk_clut_4D_sse2+0x233e>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,35,87,0,0 // movaps 0x5723(%rip),%xmm10 # 9300 <_sk_clut_4D_sse2+0x2358>
+ .byte 68,15,40,21,25,87,0,0 // movaps 0x5719(%rip),%xmm10 # 92f0 <_sk_clut_4D_sse2+0x234e>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -49649,7 +49668,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,69,15,107,192 // packssdw %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 3c1f <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 3c19 <_sk_store_565_sse2+0x7b>
.byte 242,71,15,17,4,89 // movsd %xmm8,(%r9,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49657,19 +49676,19 @@ _sk_store_565_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,38 // je 3c57 <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 3c51 <_sk_store_565_sse2+0xb3>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 3c49 <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 3c43 <_sk_store_565_sse2+0xa5>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,222 // jne 3c1b <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 3c15 <_sk_store_565_sse2+0x77>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,89,4 // mov %ax,0x4(%r9,%r11,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,89 // movd %xmm8,(%r9,%r11,2)
- .byte 235,196 // jmp 3c1b <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 3c15 <_sk_store_565_sse2+0x77>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,89 // mov %ax,(%r9,%r11,2)
- .byte 235,184 // jmp 3c1b <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 3c15 <_sk_store_565_sse2+0x77>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -49683,45 +49702,45 @@ _sk_load_4444_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 3ce0 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 3cda <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,89 // movq (%r9,%r11,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,128,86,0,0 // movdqa 0x5680(%rip),%xmm0 # 9310 <_sk_clut_4D_sse2+0x2368>
+ .byte 102,15,111,5,118,86,0,0 // movdqa 0x5676(%rip),%xmm0 # 9300 <_sk_clut_4D_sse2+0x235e>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,130,86,0,0 // mulps 0x5682(%rip),%xmm0 # 9320 <_sk_clut_4D_sse2+0x2378>
- .byte 102,15,111,13,138,86,0,0 // movdqa 0x568a(%rip),%xmm1 # 9330 <_sk_clut_4D_sse2+0x2388>
+ .byte 15,89,5,120,86,0,0 // mulps 0x5678(%rip),%xmm0 # 9310 <_sk_clut_4D_sse2+0x236e>
+ .byte 102,15,111,13,128,86,0,0 // movdqa 0x5680(%rip),%xmm1 # 9320 <_sk_clut_4D_sse2+0x237e>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,140,86,0,0 // mulps 0x568c(%rip),%xmm1 # 9340 <_sk_clut_4D_sse2+0x2398>
- .byte 102,15,111,21,148,86,0,0 // movdqa 0x5694(%rip),%xmm2 # 9350 <_sk_clut_4D_sse2+0x23a8>
+ .byte 15,89,13,130,86,0,0 // mulps 0x5682(%rip),%xmm1 # 9330 <_sk_clut_4D_sse2+0x238e>
+ .byte 102,15,111,21,138,86,0,0 // movdqa 0x568a(%rip),%xmm2 # 9340 <_sk_clut_4D_sse2+0x239e>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,150,86,0,0 // mulps 0x5696(%rip),%xmm2 # 9360 <_sk_clut_4D_sse2+0x23b8>
- .byte 102,15,219,29,158,86,0,0 // pand 0x569e(%rip),%xmm3 # 9370 <_sk_clut_4D_sse2+0x23c8>
+ .byte 15,89,21,140,86,0,0 // mulps 0x568c(%rip),%xmm2 # 9350 <_sk_clut_4D_sse2+0x23ae>
+ .byte 102,15,219,29,148,86,0,0 // pand 0x5694(%rip),%xmm3 # 9360 <_sk_clut_4D_sse2+0x23be>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,164,86,0,0 // mulps 0x56a4(%rip),%xmm3 # 9380 <_sk_clut_4D_sse2+0x23d8>
+ .byte 15,89,29,154,86,0,0 // mulps 0x569a(%rip),%xmm3 # 9370 <_sk_clut_4D_sse2+0x23ce>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,50 // je 3d1f <_sk_load_4444_sse2+0xbc>
+ .byte 116,50 // je 3d19 <_sk_load_4444_sse2+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3d0c <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 3d06 <_sk_load_4444_sse2+0xa9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,139 // jne 3c88 <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 3c82 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,105,255,255,255 // jmpq 3c88 <_sk_load_4444_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 3c82 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,91,255,255,255 // jmpq 3c88 <_sk_load_4444_sse2+0x25>
+ .byte 233,91,255,255,255 // jmpq 3c82 <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -49735,45 +49754,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 3daa <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 3da4 <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,89 // movq (%r9,%r11,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,54,86,0,0 // movdqa 0x5636(%rip),%xmm4 # 9390 <_sk_clut_4D_sse2+0x23e8>
+ .byte 102,15,111,37,44,86,0,0 // movdqa 0x562c(%rip),%xmm4 # 9380 <_sk_clut_4D_sse2+0x23de>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,56,86,0,0 // mulps 0x5638(%rip),%xmm4 # 93a0 <_sk_clut_4D_sse2+0x23f8>
- .byte 102,15,111,45,64,86,0,0 // movdqa 0x5640(%rip),%xmm5 # 93b0 <_sk_clut_4D_sse2+0x2408>
+ .byte 15,89,37,46,86,0,0 // mulps 0x562e(%rip),%xmm4 # 9390 <_sk_clut_4D_sse2+0x23ee>
+ .byte 102,15,111,45,54,86,0,0 // movdqa 0x5636(%rip),%xmm5 # 93a0 <_sk_clut_4D_sse2+0x23fe>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,66,86,0,0 // mulps 0x5642(%rip),%xmm5 # 93c0 <_sk_clut_4D_sse2+0x2418>
- .byte 102,15,111,53,74,86,0,0 // movdqa 0x564a(%rip),%xmm6 # 93d0 <_sk_clut_4D_sse2+0x2428>
+ .byte 15,89,45,56,86,0,0 // mulps 0x5638(%rip),%xmm5 # 93b0 <_sk_clut_4D_sse2+0x240e>
+ .byte 102,15,111,53,64,86,0,0 // movdqa 0x5640(%rip),%xmm6 # 93c0 <_sk_clut_4D_sse2+0x241e>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,76,86,0,0 // mulps 0x564c(%rip),%xmm6 # 93e0 <_sk_clut_4D_sse2+0x2438>
- .byte 102,15,219,61,84,86,0,0 // pand 0x5654(%rip),%xmm7 # 93f0 <_sk_clut_4D_sse2+0x2448>
+ .byte 15,89,53,66,86,0,0 // mulps 0x5642(%rip),%xmm6 # 93d0 <_sk_clut_4D_sse2+0x242e>
+ .byte 102,15,219,61,74,86,0,0 // pand 0x564a(%rip),%xmm7 # 93e0 <_sk_clut_4D_sse2+0x243e>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,90,86,0,0 // mulps 0x565a(%rip),%xmm7 # 9400 <_sk_clut_4D_sse2+0x2458>
+ .byte 15,89,61,80,86,0,0 // mulps 0x5650(%rip),%xmm7 # 93f0 <_sk_clut_4D_sse2+0x244e>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,50 // je 3de9 <_sk_load_4444_dst_sse2+0xbc>
+ .byte 116,50 // je 3de3 <_sk_load_4444_dst_sse2+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,21 // je 3dd6 <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 3dd0 <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,139 // jne 3d52 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 3d4c <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,105,255,255,255 // jmpq 3d52 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 3d4c <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,91,255,255,255 // jmpq 3d52 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,91,255,255,255 // jmpq 3d4c <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -49808,21 +49827,21 @@ _sk_gather_4444_sse2:
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,147,85,0,0 // movdqa 0x5593(%rip),%xmm0 # 9410 <_sk_clut_4D_sse2+0x2468>
+ .byte 102,15,111,5,137,85,0,0 // movdqa 0x5589(%rip),%xmm0 # 9400 <_sk_clut_4D_sse2+0x245e>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,149,85,0,0 // mulps 0x5595(%rip),%xmm0 # 9420 <_sk_clut_4D_sse2+0x2478>
- .byte 102,15,111,13,157,85,0,0 // movdqa 0x559d(%rip),%xmm1 # 9430 <_sk_clut_4D_sse2+0x2488>
+ .byte 15,89,5,139,85,0,0 // mulps 0x558b(%rip),%xmm0 # 9410 <_sk_clut_4D_sse2+0x246e>
+ .byte 102,15,111,13,147,85,0,0 // movdqa 0x5593(%rip),%xmm1 # 9420 <_sk_clut_4D_sse2+0x247e>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,159,85,0,0 // mulps 0x559f(%rip),%xmm1 # 9440 <_sk_clut_4D_sse2+0x2498>
- .byte 102,15,111,21,167,85,0,0 // movdqa 0x55a7(%rip),%xmm2 # 9450 <_sk_clut_4D_sse2+0x24a8>
+ .byte 15,89,13,149,85,0,0 // mulps 0x5595(%rip),%xmm1 # 9430 <_sk_clut_4D_sse2+0x248e>
+ .byte 102,15,111,21,157,85,0,0 // movdqa 0x559d(%rip),%xmm2 # 9440 <_sk_clut_4D_sse2+0x249e>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,169,85,0,0 // mulps 0x55a9(%rip),%xmm2 # 9460 <_sk_clut_4D_sse2+0x24b8>
- .byte 102,15,219,29,177,85,0,0 // pand 0x55b1(%rip),%xmm3 # 9470 <_sk_clut_4D_sse2+0x24c8>
+ .byte 15,89,21,159,85,0,0 // mulps 0x559f(%rip),%xmm2 # 9450 <_sk_clut_4D_sse2+0x24ae>
+ .byte 102,15,219,29,167,85,0,0 // pand 0x55a7(%rip),%xmm3 # 9460 <_sk_clut_4D_sse2+0x24be>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,183,85,0,0 // mulps 0x55b7(%rip),%xmm3 # 9480 <_sk_clut_4D_sse2+0x24d8>
+ .byte 15,89,29,173,85,0,0 // mulps 0x55ad(%rip),%xmm3 # 9470 <_sk_clut_4D_sse2+0x24ce>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
@@ -49838,7 +49857,7 @@ _sk_store_4444_sse2:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 76,99,218 // movslq %edx,%r11
- .byte 68,15,40,5,164,85,0,0 // movaps 0x55a4(%rip),%xmm8 # 9490 <_sk_clut_4D_sse2+0x24e8>
+ .byte 68,15,40,5,154,85,0,0 // movaps 0x559a(%rip),%xmm8 # 9480 <_sk_clut_4D_sse2+0x24de>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -49860,7 +49879,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,69,15,107,192 // packssdw %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 3f5d <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 3f57 <_sk_store_4444_sse2+0x8f>
.byte 242,71,15,17,4,89 // movsd %xmm8,(%r9,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49868,19 +49887,19 @@ _sk_store_4444_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,38 // je 3f95 <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 3f8f <_sk_store_4444_sse2+0xc7>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,18 // je 3f87 <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 3f81 <_sk_store_4444_sse2+0xb9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,222 // jne 3f59 <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 3f53 <_sk_store_4444_sse2+0x8b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,89,4 // mov %ax,0x4(%r9,%r11,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,89 // movd %xmm8,(%r9,%r11,2)
- .byte 235,196 // jmp 3f59 <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 3f53 <_sk_store_4444_sse2+0x8b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,89 // mov %ax,(%r9,%r11,2)
- .byte 235,184 // jmp 3f59 <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 3f53 <_sk_store_4444_sse2+0x8b>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -49894,13 +49913,13 @@ _sk_load_8888_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 401f <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 4019 <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9
- .byte 102,15,111,21,213,84,0,0 // movdqa 0x54d5(%rip),%xmm2 # 94a0 <_sk_clut_4D_sse2+0x24f8>
+ .byte 102,15,111,21,203,84,0,0 // movdqa 0x54cb(%rip),%xmm2 # 9490 <_sk_clut_4D_sse2+0x24ee>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,209,84,0,0 // movaps 0x54d1(%rip),%xmm8 # 94b0 <_sk_clut_4D_sse2+0x2508>
+ .byte 68,15,40,5,199,84,0,0 // movaps 0x54c7(%rip),%xmm8 # 94a0 <_sk_clut_4D_sse2+0x24fe>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -49920,18 +49939,18 @@ _sk_load_8888_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,41 // je 4055 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 404f <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,19 // je 404a <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 4044 <_sk_load_8888_sse2+0xa9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,134 // jne 3fc3 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 3fbd <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 3fc3 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 3fbd <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 3fc3 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 3fbd <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -49945,13 +49964,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 40de <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 40d8 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9
- .byte 102,15,111,53,54,84,0,0 // movdqa 0x5436(%rip),%xmm6 # 94c0 <_sk_clut_4D_sse2+0x2518>
+ .byte 102,15,111,53,44,84,0,0 // movdqa 0x542c(%rip),%xmm6 # 94b0 <_sk_clut_4D_sse2+0x250e>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,50,84,0,0 // movaps 0x5432(%rip),%xmm8 # 94d0 <_sk_clut_4D_sse2+0x2528>
+ .byte 68,15,40,5,40,84,0,0 // movaps 0x5428(%rip),%xmm8 # 94c0 <_sk_clut_4D_sse2+0x251e>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -49971,18 +49990,18 @@ _sk_load_8888_dst_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,41 // je 4114 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 410e <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,19 // je 4109 <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 4103 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,134 // jne 4082 <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 407c <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 4082 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 407c <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 4082 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 407c <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -50016,11 +50035,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,145 // movd (%r9,%r10,4),%xmm1
.byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9
.byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,15,111,21,63,83,0,0 // movdqa 0x533f(%rip),%xmm2 # 94e0 <_sk_clut_4D_sse2+0x2538>
+ .byte 102,15,111,21,53,83,0,0 // movdqa 0x5335(%rip),%xmm2 # 94d0 <_sk_clut_4D_sse2+0x252e>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,59,83,0,0 // movaps 0x533b(%rip),%xmm8 # 94f0 <_sk_clut_4D_sse2+0x2548>
+ .byte 68,15,40,5,49,83,0,0 // movaps 0x5331(%rip),%xmm8 # 94e0 <_sk_clut_4D_sse2+0x253e>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -50050,7 +50069,7 @@ _sk_store_8888_sse2:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,235,82,0,0 // movaps 0x52eb(%rip),%xmm8 # 9500 <_sk_clut_4D_sse2+0x2558>
+ .byte 68,15,40,5,225,82,0,0 // movaps 0x52e1(%rip),%xmm8 # 94f0 <_sk_clut_4D_sse2+0x254e>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -50069,24 +50088,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 4275 <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 426f <_sk_store_8888_sse2+0x7f>
.byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,33 // je 42a3 <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 429d <_sk_store_8888_sse2+0xad>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,19 // je 429b <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 4295 <_sk_store_8888_sse2+0xa5>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,227 // jne 4271 <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 426b <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,129,8 // movd %xmm9,0x8(%r9,%rax,4)
.byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4)
- .byte 235,206 // jmp 4271 <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 426b <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4)
- .byte 235,198 // jmp 4271 <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 426b <_sk_store_8888_sse2+0x7b>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -50100,13 +50119,13 @@ _sk_load_bgra_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 4329 <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 4323 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9
- .byte 102,15,111,5,59,82,0,0 // movdqa 0x523b(%rip),%xmm0 # 9510 <_sk_clut_4D_sse2+0x2568>
+ .byte 102,15,111,5,49,82,0,0 // movdqa 0x5231(%rip),%xmm0 # 9500 <_sk_clut_4D_sse2+0x255e>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,55,82,0,0 // movaps 0x5237(%rip),%xmm8 # 9520 <_sk_clut_4D_sse2+0x2578>
+ .byte 68,15,40,5,45,82,0,0 // movaps 0x522d(%rip),%xmm8 # 9510 <_sk_clut_4D_sse2+0x256e>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -50126,18 +50145,18 @@ _sk_load_bgra_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,41 // je 435f <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 4359 <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,19 // je 4354 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 434e <_sk_load_bgra_sse2+0xa9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,134 // jne 42cd <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 42c7 <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 42cd <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 42c7 <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 42cd <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 42c7 <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -50151,13 +50170,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 43e8 <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 43e2 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9
- .byte 102,15,111,37,156,81,0,0 // movdqa 0x519c(%rip),%xmm4 # 9530 <_sk_clut_4D_sse2+0x2588>
+ .byte 102,15,111,37,146,81,0,0 // movdqa 0x5192(%rip),%xmm4 # 9520 <_sk_clut_4D_sse2+0x257e>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,152,81,0,0 // movaps 0x5198(%rip),%xmm8 # 9540 <_sk_clut_4D_sse2+0x2598>
+ .byte 68,15,40,5,142,81,0,0 // movaps 0x518e(%rip),%xmm8 # 9530 <_sk_clut_4D_sse2+0x258e>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -50177,18 +50196,18 @@ _sk_load_bgra_dst_sse2:
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,41 // je 441e <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 4418 <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,19 // je 4413 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 440d <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,134 // jne 438c <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 4386 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 438c <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 4386 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 438c <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 4386 <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -50222,11 +50241,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,145 // movd (%r9,%r10,4),%xmm1
.byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9
.byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,15,111,5,165,80,0,0 // movdqa 0x50a5(%rip),%xmm0 # 9550 <_sk_clut_4D_sse2+0x25a8>
+ .byte 102,15,111,5,155,80,0,0 // movdqa 0x509b(%rip),%xmm0 # 9540 <_sk_clut_4D_sse2+0x259e>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,161,80,0,0 // movaps 0x50a1(%rip),%xmm8 # 9560 <_sk_clut_4D_sse2+0x25b8>
+ .byte 68,15,40,5,151,80,0,0 // movaps 0x5097(%rip),%xmm8 # 9550 <_sk_clut_4D_sse2+0x25ae>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -50256,7 +50275,7 @@ _sk_store_bgra_sse2:
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,81,80,0,0 // movaps 0x5051(%rip),%xmm8 # 9570 <_sk_clut_4D_sse2+0x25c8>
+ .byte 68,15,40,5,71,80,0,0 // movaps 0x5047(%rip),%xmm8 # 9560 <_sk_clut_4D_sse2+0x25be>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -50275,24 +50294,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne 457f <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 4579 <_sk_store_bgra_sse2+0x7f>
.byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 69,137,194 // mov %r8d,%r10d
.byte 65,128,226,3 // and $0x3,%r10b
.byte 65,128,250,1 // cmp $0x1,%r10b
- .byte 116,33 // je 45ad <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 45a7 <_sk_store_bgra_sse2+0xad>
.byte 65,128,250,2 // cmp $0x2,%r10b
- .byte 116,19 // je 45a5 <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 459f <_sk_store_bgra_sse2+0xa5>
.byte 65,128,250,3 // cmp $0x3,%r10b
- .byte 117,227 // jne 457b <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 4575 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,129,8 // movd %xmm9,0x8(%r9,%rax,4)
.byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4)
- .byte 235,206 // jmp 457b <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 4575 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4)
- .byte 235,198 // jmp 457b <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 4575 <_sk_store_bgra_sse2+0x7b>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -50306,7 +50325,7 @@ _sk_load_f16_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,98,1,0,0 // jne 4737 <_sk_load_f16_sse2+0x182>
+ .byte 15,133,98,1,0,0 // jne 4731 <_sk_load_f16_sse2+0x182>
.byte 102,65,15,16,4,193 // movupd (%r9,%rax,8),%xmm0
.byte 102,65,15,16,76,193,16 // movupd 0x10(%r9,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -50318,7 +50337,7 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,105,79,0,0 // movdqa 0x4f69(%rip),%xmm9 # 9580 <_sk_clut_4D_sse2+0x25d8>
+ .byte 102,68,15,111,13,95,79,0,0 // movdqa 0x4f5f(%rip),%xmm9 # 9570 <_sk_clut_4D_sse2+0x25ce>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,239,200 // pxor %xmm0,%xmm1
@@ -50326,11 +50345,11 @@ _sk_load_f16_sse2:
.byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,68,15,111,29,78,79,0,0 // movdqa 0x4f4e(%rip),%xmm11 # 9590 <_sk_clut_4D_sse2+0x25e8>
+ .byte 102,68,15,111,29,68,79,0,0 // movdqa 0x4f44(%rip),%xmm11 # 9580 <_sk_clut_4D_sse2+0x25de>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,80,79,0,0 // movdqa 0x4f50(%rip),%xmm12 # 95a0 <_sk_clut_4D_sse2+0x25f8>
+ .byte 102,68,15,111,37,70,79,0,0 // movdqa 0x4f46(%rip),%xmm12 # 9590 <_sk_clut_4D_sse2+0x25ee>
.byte 102,65,15,239,204 // pxor %xmm12,%xmm1
- .byte 102,15,111,29,83,79,0,0 // movdqa 0x4f53(%rip),%xmm3 # 95b0 <_sk_clut_4D_sse2+0x2608>
+ .byte 102,15,111,29,73,79,0,0 // movdqa 0x4f49(%rip),%xmm3 # 95a0 <_sk_clut_4D_sse2+0x25fe>
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,65,15,223,197 // pandn %xmm13,%xmm0
@@ -50378,17 +50397,17 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,193 // movsd (%r9,%rax,8),%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,17 // jne 4754 <_sk_load_f16_sse2+0x19f>
+ .byte 117,17 // jne 474e <_sk_load_f16_sse2+0x19f>
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 233,142,254,255,255 // jmpq 45e2 <_sk_load_f16_sse2+0x2d>
+ .byte 233,142,254,255,255 // jmpq 45dc <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,193,8 // movhpd 0x8(%r9,%rax,8),%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,121,254,255,255 // jb 45e2 <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,121,254,255,255 // jb 45dc <_sk_load_f16_sse2+0x2d>
.byte 242,65,15,16,76,193,16 // movsd 0x10(%r9,%rax,8),%xmm1
- .byte 233,109,254,255,255 // jmpq 45e2 <_sk_load_f16_sse2+0x2d>
+ .byte 233,109,254,255,255 // jmpq 45dc <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -50402,7 +50421,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,98,1,0,0 // jne 48f7 <_sk_load_f16_dst_sse2+0x182>
+ .byte 15,133,98,1,0,0 // jne 48f1 <_sk_load_f16_dst_sse2+0x182>
.byte 102,65,15,16,36,193 // movupd (%r9,%rax,8),%xmm4
.byte 102,65,15,16,108,193,16 // movupd 0x10(%r9,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -50414,7 +50433,7 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,238 // movdqa %xmm14,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,233,77,0,0 // movdqa 0x4de9(%rip),%xmm9 # 95c0 <_sk_clut_4D_sse2+0x2618>
+ .byte 102,68,15,111,13,223,77,0,0 // movdqa 0x4ddf(%rip),%xmm9 # 95b0 <_sk_clut_4D_sse2+0x260e>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,239,236 // pxor %xmm4,%xmm5
@@ -50422,11 +50441,11 @@ _sk_load_f16_dst_sse2:
.byte 102,68,15,111,237 // movdqa %xmm5,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,236 // por %xmm4,%xmm13
- .byte 102,68,15,111,29,206,77,0,0 // movdqa 0x4dce(%rip),%xmm11 # 95d0 <_sk_clut_4D_sse2+0x2628>
+ .byte 102,68,15,111,29,196,77,0,0 // movdqa 0x4dc4(%rip),%xmm11 # 95c0 <_sk_clut_4D_sse2+0x261e>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,208,77,0,0 // movdqa 0x4dd0(%rip),%xmm12 # 95e0 <_sk_clut_4D_sse2+0x2638>
+ .byte 102,68,15,111,37,198,77,0,0 // movdqa 0x4dc6(%rip),%xmm12 # 95d0 <_sk_clut_4D_sse2+0x262e>
.byte 102,65,15,239,236 // pxor %xmm12,%xmm5
- .byte 102,15,111,61,211,77,0,0 // movdqa 0x4dd3(%rip),%xmm7 # 95f0 <_sk_clut_4D_sse2+0x2648>
+ .byte 102,15,111,61,201,77,0,0 // movdqa 0x4dc9(%rip),%xmm7 # 95e0 <_sk_clut_4D_sse2+0x263e>
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,65,15,223,229 // pandn %xmm13,%xmm4
@@ -50474,17 +50493,17 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,193 // movsd (%r9,%rax,8),%xmm4
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,17 // jne 4914 <_sk_load_f16_dst_sse2+0x19f>
+ .byte 117,17 // jne 490e <_sk_load_f16_dst_sse2+0x19f>
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
.byte 102,15,20,229 // unpcklpd %xmm5,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
- .byte 233,142,254,255,255 // jmpq 47a2 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,142,254,255,255 // jmpq 479c <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,193,8 // movhpd 0x8(%r9,%rax,8),%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,121,254,255,255 // jb 47a2 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,121,254,255,255 // jb 479c <_sk_load_f16_dst_sse2+0x2d>
.byte 242,65,15,16,108,193,16 // movsd 0x10(%r9,%rax,8),%xmm5
- .byte 233,109,254,255,255 // jmpq 47a2 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,109,254,255,255 // jmpq 479c <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -50526,7 +50545,7 @@ _sk_gather_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,34,76,0,0 // movdqa 0x4c22(%rip),%xmm9 # 9600 <_sk_clut_4D_sse2+0x2658>
+ .byte 102,68,15,111,13,24,76,0,0 // movdqa 0x4c18(%rip),%xmm9 # 95f0 <_sk_clut_4D_sse2+0x264e>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,239,200 // pxor %xmm0,%xmm1
@@ -50534,11 +50553,11 @@ _sk_gather_f16_sse2:
.byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,68,15,111,29,7,76,0,0 // movdqa 0x4c07(%rip),%xmm11 # 9610 <_sk_clut_4D_sse2+0x2668>
+ .byte 102,68,15,111,29,253,75,0,0 // movdqa 0x4bfd(%rip),%xmm11 # 9600 <_sk_clut_4D_sse2+0x265e>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,9,76,0,0 // movdqa 0x4c09(%rip),%xmm12 # 9620 <_sk_clut_4D_sse2+0x2678>
+ .byte 102,68,15,111,37,255,75,0,0 // movdqa 0x4bff(%rip),%xmm12 # 9610 <_sk_clut_4D_sse2+0x266e>
.byte 102,65,15,239,204 // pxor %xmm12,%xmm1
- .byte 102,15,111,29,12,76,0,0 // movdqa 0x4c0c(%rip),%xmm3 # 9630 <_sk_clut_4D_sse2+0x2688>
+ .byte 102,15,111,29,2,76,0,0 // movdqa 0x4c02(%rip),%xmm3 # 9620 <_sk_clut_4D_sse2+0x267e>
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,65,15,223,197 // pandn %xmm13,%xmm0
@@ -50597,17 +50616,17 @@ _sk_store_f16_sse2:
.byte 73,193,225,3 // shl $0x3,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,21,33,75,0,0 // movdqa 0x4b21(%rip),%xmm10 # 9640 <_sk_clut_4D_sse2+0x2698>
+ .byte 102,68,15,111,21,23,75,0,0 // movdqa 0x4b17(%rip),%xmm10 # 9630 <_sk_clut_4D_sse2+0x268e>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
- .byte 102,68,15,111,13,20,75,0,0 // movdqa 0x4b14(%rip),%xmm9 # 9650 <_sk_clut_4D_sse2+0x26a8>
+ .byte 102,68,15,111,13,10,75,0,0 // movdqa 0x4b0a(%rip),%xmm9 # 9640 <_sk_clut_4D_sse2+0x269e>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,69,15,102,197 // pcmpgtd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
- .byte 102,68,15,111,29,5,75,0,0 // movdqa 0x4b05(%rip),%xmm11 # 9660 <_sk_clut_4D_sse2+0x26b8>
+ .byte 102,68,15,111,29,251,74,0,0 // movdqa 0x4afb(%rip),%xmm11 # 9650 <_sk_clut_4D_sse2+0x26ae>
.byte 102,69,15,235,227 // por %xmm11,%xmm12
.byte 102,69,15,254,229 // paddd %xmm13,%xmm12
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
@@ -50659,7 +50678,7 @@ _sk_store_f16_sse2:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 77,133,192 // test %r8,%r8
- .byte 117,21 // jne 4c7d <_sk_store_f16_sse2+0x17e>
+ .byte 117,21 // jne 4c77 <_sk_store_f16_sse2+0x17e>
.byte 69,15,17,12,193 // movups %xmm9,(%r9,%rax,8)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,193,16 // movdqu %xmm8,0x10(%r9,%rax,8)
@@ -50667,13 +50686,13 @@ _sk_store_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,193 // movq %xmm9,(%r9,%rax,8)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 4c79 <_sk_store_f16_sse2+0x17a>
+ .byte 116,240 // je 4c73 <_sk_store_f16_sse2+0x17a>
.byte 102,69,15,23,76,193,8 // movhpd %xmm9,0x8(%r9,%rax,8)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 4c79 <_sk_store_f16_sse2+0x17a>
+ .byte 114,227 // jb 4c73 <_sk_store_f16_sse2+0x17a>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,193,16 // movq %xmm8,0x10(%r9,%rax,8)
- .byte 235,213 // jmp 4c79 <_sk_store_f16_sse2+0x17a>
+ .byte 235,213 // jmp 4c73 <_sk_store_f16_sse2+0x17a>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -50688,7 +50707,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,190,0,0,0 // jne 4d89 <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 4d83 <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,65 // movupd (%r9,%rax,2),%xmm0
.byte 102,65,15,16,76,65,16 // movupd 0x10(%r9,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -50705,7 +50724,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,84,73,0,0 // movaps 0x4954(%rip),%xmm8 # 9670 <_sk_clut_4D_sse2+0x26c8>
+ .byte 68,15,40,5,74,73,0,0 // movaps 0x494a(%rip),%xmm8 # 9660 <_sk_clut_4D_sse2+0x26be>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -50733,17 +50752,17 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,65 // movsd (%r9,%rax,2),%xmm0
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,17 // jne 4da6 <_sk_load_u16_be_sse2+0x102>
+ .byte 117,17 // jne 4da0 <_sk_load_u16_be_sse2+0x102>
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 233,50,255,255,255 // jmpq 4cd8 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,50,255,255,255 // jmpq 4cd2 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,65,8 // movhpd 0x8(%r9,%rax,2),%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 15,130,29,255,255,255 // jb 4cd8 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,29,255,255,255 // jb 4cd2 <_sk_load_u16_be_sse2+0x34>
.byte 242,65,15,16,76,65,16 // movsd 0x10(%r9,%rax,2),%xmm1
- .byte 233,17,255,255,255 // jmpq 4cd8 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,17,255,255,255 // jmpq 4cd2 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -50760,7 +50779,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,175,0,0,0 // jne 4ea1 <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 4e9b <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,65 // movdqu (%r9,%rax,2),%xmm2
.byte 243,65,15,111,92,65,8 // movdqu 0x8(%r9,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -50781,7 +50800,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,42,72,0,0 // movaps 0x482a(%rip),%xmm9 # 9680 <_sk_clut_4D_sse2+0x26d8>
+ .byte 68,15,40,13,32,72,0,0 // movaps 0x4820(%rip),%xmm9 # 9670 <_sk_clut_4D_sse2+0x26ce>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -50798,27 +50817,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,241,71,0,0 // movaps 0x47f1(%rip),%xmm3 # 9690 <_sk_clut_4D_sse2+0x26e8>
+ .byte 15,40,29,231,71,0,0 // movaps 0x47e7(%rip),%xmm3 # 9680 <_sk_clut_4D_sse2+0x26de>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,65 // movd (%r9,%rax,2),%xmm2
.byte 102,65,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,13 // jne 4ec6 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 4ec0 <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 4e16 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 4e10 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,65,6 // movd 0x6(%r9,%rax,2),%xmm0
.byte 102,65,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,24 // jb 4ef7 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 4ef1 <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,65,12 // movd 0xc(%r9,%rax,2),%xmm3
.byte 102,65,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,31,255,255,255 // jmpq 4e16 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 4e10 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 4e16 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 4e10 <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -50832,7 +50851,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 73,99,194 // movslq %r10d,%rax
- .byte 68,15,40,21,122,71,0,0 // movaps 0x477a(%rip),%xmm10 # 96a0 <_sk_clut_4D_sse2+0x26f8>
+ .byte 68,15,40,21,112,71,0,0 // movaps 0x4770(%rip),%xmm10 # 9690 <_sk_clut_4D_sse2+0x26ee>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -50877,7 +50896,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 77,133,192 // test %r8,%r8
- .byte 117,21 // jne 5020 <_sk_store_u16_be_sse2+0x120>
+ .byte 117,21 // jne 501a <_sk_store_u16_be_sse2+0x120>
.byte 69,15,17,20,65 // movups %xmm10,(%r9,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%rax,2)
@@ -50885,13 +50904,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,65 // movq %xmm10,(%r9,%rax,2)
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,240 // je 501c <_sk_store_u16_be_sse2+0x11c>
+ .byte 116,240 // je 5016 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,23,84,65,8 // movhpd %xmm10,0x8(%r9,%rax,2)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,227 // jb 501c <_sk_store_u16_be_sse2+0x11c>
+ .byte 114,227 // jb 5016 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,65,16 // movq %xmm8,0x10(%r9,%rax,2)
- .byte 235,213 // jmp 501c <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 5016 <_sk_store_u16_be_sse2+0x11c>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -50907,7 +50926,7 @@ _sk_load_f32_sse2:
.byte 73,99,194 // movslq %r10d,%rax
.byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,66 // jne 50b2 <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 50ac <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0
.byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3
.byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9
@@ -50927,17 +50946,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,8 // jne 50c4 <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 50be <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 5082 <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 507c <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,8 // jb 50d8 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 50d2 <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3
- .byte 235,170 // jmp 5082 <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 507c <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 5082 <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 507c <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -50953,7 +50972,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,194 // movslq %r10d,%rax
.byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,66 // jne 5148 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 5142 <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4
.byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7
.byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9
@@ -50973,17 +50992,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 117,8 // jne 515a <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 5154 <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 5118 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 5112 <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,8 // jb 516e <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 5168 <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7
- .byte 235,170 // jmp 5118 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 5112 <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 5118 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 5112 <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -51012,7 +51031,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,129 // movupd %xmm12,(%r9,%rax,4)
.byte 77,133,192 // test %r8,%r8
- .byte 117,29 // jne 51f0 <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 51ea <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4)
.byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4)
@@ -51020,12 +51039,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 116,246 // je 51ec <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 51e6 <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4)
.byte 73,131,248,3 // cmp $0x3,%r8
- .byte 114,234 // jb 51ec <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 51e6 <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4)
- .byte 235,225 // jmp 51ec <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 51e6 <_sk_store_f32_sse2+0x79>
HIDDEN _sk_clamp_x_sse2
.globl _sk_clamp_x_sse2
@@ -51071,7 +51090,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,39,68,0,0 // andps 0x4427(%rip),%xmm10 # 96b0 <_sk_clut_4D_sse2+0x2708>
+ .byte 68,15,84,21,29,68,0,0 // andps 0x441d(%rip),%xmm10 # 96a0 <_sk_clut_4D_sse2+0x26fe>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
@@ -51097,7 +51116,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,221,67,0,0 // andps 0x43dd(%rip),%xmm10 # 96c0 <_sk_clut_4D_sse2+0x2718>
+ .byte 68,15,84,21,211,67,0,0 // andps 0x43d3(%rip),%xmm10 # 96b0 <_sk_clut_4D_sse2+0x270e>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
@@ -51123,13 +51142,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,193 // subps %xmm9,%xmm0
.byte 243,69,15,88,210 // addss %xmm10,%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,89,29,210,72,0,0 // mulss 0x48d2(%rip),%xmm11 # 9c10 <_sk_clut_4D_sse2+0x2c68>
+ .byte 243,68,15,89,29,200,72,0,0 // mulss 0x48c8(%rip),%xmm11 # 9c00 <_sk_clut_4D_sse2+0x2c5e>
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8
.byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,84,29,115,67,0,0 // andps 0x4373(%rip),%xmm11 # 96d0 <_sk_clut_4D_sse2+0x2728>
+ .byte 68,15,84,29,105,67,0,0 // andps 0x4369(%rip),%xmm11 # 96c0 <_sk_clut_4D_sse2+0x271e>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,227 // subps %xmm11,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
@@ -51158,13 +51177,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,201 // subps %xmm9,%xmm1
.byte 243,69,15,88,210 // addss %xmm10,%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,89,29,81,72,0,0 // mulss 0x4851(%rip),%xmm11 # 9c14 <_sk_clut_4D_sse2+0x2c6c>
+ .byte 243,68,15,89,29,71,72,0,0 // mulss 0x4847(%rip),%xmm11 # 9c04 <_sk_clut_4D_sse2+0x2c62>
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
.byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8
.byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,84,29,254,66,0,0 // andps 0x42fe(%rip),%xmm11 # 96e0 <_sk_clut_4D_sse2+0x2738>
+ .byte 68,15,84,29,244,66,0,0 // andps 0x42f4(%rip),%xmm11 # 96d0 <_sk_clut_4D_sse2+0x272e>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,227 // subps %xmm11,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
@@ -51187,7 +51206,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,197,66,0,0 // minps 0x42c5(%rip),%xmm8 # 96f0 <_sk_clut_4D_sse2+0x2748>
+ .byte 68,15,93,5,187,66,0,0 // minps 0x42bb(%rip),%xmm8 # 96e0 <_sk_clut_4D_sse2+0x273e>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -51200,7 +51219,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,84,13,179,66,0,0 // andps 0x42b3(%rip),%xmm9 # 9700 <_sk_clut_4D_sse2+0x2758>
+ .byte 68,15,84,13,169,66,0,0 // andps 0x42a9(%rip),%xmm9 # 96f0 <_sk_clut_4D_sse2+0x274e>
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51210,14 +51229,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,5,175,66,0,0 // movaps 0x42af(%rip),%xmm8 # 9710 <_sk_clut_4D_sse2+0x2768>
+ .byte 68,15,40,5,165,66,0,0 // movaps 0x42a5(%rip),%xmm8 # 9700 <_sk_clut_4D_sse2+0x275e>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,179,66,0,0 // movaps 0x42b3(%rip),%xmm9 # 9720 <_sk_clut_4D_sse2+0x2778>
+ .byte 68,15,40,13,169,66,0,0 // movaps 0x42a9(%rip),%xmm9 # 9710 <_sk_clut_4D_sse2+0x276e>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,169,66,0,0 // andps 0x42a9(%rip),%xmm9 # 9730 <_sk_clut_4D_sse2+0x2788>
+ .byte 68,15,84,13,159,66,0,0 // andps 0x429f(%rip),%xmm9 # 9720 <_sk_clut_4D_sse2+0x277e>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,88,210 // addps %xmm10,%xmm10
@@ -51233,10 +51252,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,143,66,0,0 // mulps 0x428f(%rip),%xmm0 # 9740 <_sk_clut_4D_sse2+0x2798>
- .byte 15,89,13,152,66,0,0 // mulps 0x4298(%rip),%xmm1 # 9750 <_sk_clut_4D_sse2+0x27a8>
+ .byte 15,89,5,133,66,0,0 // mulps 0x4285(%rip),%xmm0 # 9730 <_sk_clut_4D_sse2+0x278e>
+ .byte 15,89,13,142,66,0,0 // mulps 0x428e(%rip),%xmm1 # 9740 <_sk_clut_4D_sse2+0x279e>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,158,66,0,0 // mulps 0x429e(%rip),%xmm3 # 9760 <_sk_clut_4D_sse2+0x27b8>
+ .byte 15,89,29,148,66,0,0 // mulps 0x4294(%rip),%xmm3 # 9750 <_sk_clut_4D_sse2+0x27ae>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -51548,9 +51567,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 5962 <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 595c <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 5977 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 5971 <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,217 // mov %rbx,%r9
.byte 73,209,233 // shr %r9
.byte 131,227,1 // and $0x1,%ebx
@@ -51648,15 +51667,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,109,60,0,0 // movaps 0x3c6d(%rip),%xmm0 # 9770 <_sk_clut_4D_sse2+0x27c8>
+ .byte 15,40,5,99,60,0,0 // movaps 0x3c63(%rip),%xmm0 # 9760 <_sk_clut_4D_sse2+0x27be>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,115,60,0,0 // addps 0x3c73(%rip),%xmm0 # 9780 <_sk_clut_4D_sse2+0x27d8>
+ .byte 15,88,5,105,60,0,0 // addps 0x3c69(%rip),%xmm0 # 9770 <_sk_clut_4D_sse2+0x27ce>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,121,60,0,0 // addps 0x3c79(%rip),%xmm0 # 9790 <_sk_clut_4D_sse2+0x27e8>
+ .byte 15,88,5,111,60,0,0 // addps 0x3c6f(%rip),%xmm0 # 9780 <_sk_clut_4D_sse2+0x27de>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,127,60,0,0 // addps 0x3c7f(%rip),%xmm0 # 97a0 <_sk_clut_4D_sse2+0x27f8>
+ .byte 15,88,5,117,60,0,0 // addps 0x3c75(%rip),%xmm0 # 9790 <_sk_clut_4D_sse2+0x27ee>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,133,60,0,0 // addps 0x3c85(%rip),%xmm0 # 97b0 <_sk_clut_4D_sse2+0x2808>
+ .byte 15,88,5,123,60,0,0 // addps 0x3c7b(%rip),%xmm0 # 97a0 <_sk_clut_4D_sse2+0x27fe>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -51674,12 +51693,12 @@ _sk_gradient_sse2:
.byte 76,139,8 // mov (%rax),%r9
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,249,2 // cmp $0x2,%r9
- .byte 114,50 // jb 5b7e <_sk_gradient_sse2+0x46>
+ .byte 114,50 // jb 5b78 <_sk_gradient_sse2+0x46>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,201 // dec %r9
.byte 72,131,195,4 // add $0x4,%rbx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,40,21,94,60,0,0 // movaps 0x3c5e(%rip),%xmm2 # 97c0 <_sk_clut_4D_sse2+0x2818>
+ .byte 15,40,21,84,60,0,0 // movaps 0x3c54(%rip),%xmm2 # 97b0 <_sk_clut_4D_sse2+0x280e>
.byte 243,15,16,27 // movss (%rbx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
@@ -51687,7 +51706,7 @@ _sk_gradient_sse2:
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,201 // dec %r9
- .byte 117,228 // jne 5b62 <_sk_gradient_sse2+0x2a>
+ .byte 117,228 // jne 5b5c <_sk_gradient_sse2+0x2a>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,211 // movq %xmm2,%r11
.byte 69,137,217 // mov %r11d,%r9d
@@ -51826,29 +51845,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,31,58,0,0 // movaps 0x3a1f(%rip),%xmm13 # 97d0 <_sk_clut_4D_sse2+0x2828>
+ .byte 68,15,40,45,21,58,0,0 // movaps 0x3a15(%rip),%xmm13 # 97c0 <_sk_clut_4D_sse2+0x281e>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,35,58,0,0 // addps 0x3a23(%rip),%xmm13 # 97e0 <_sk_clut_4D_sse2+0x2838>
+ .byte 68,15,88,45,25,58,0,0 // addps 0x3a19(%rip),%xmm13 # 97d0 <_sk_clut_4D_sse2+0x282e>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,39,58,0,0 // addps 0x3a27(%rip),%xmm13 # 97f0 <_sk_clut_4D_sse2+0x2848>
+ .byte 68,15,88,45,29,58,0,0 // addps 0x3a1d(%rip),%xmm13 # 97e0 <_sk_clut_4D_sse2+0x283e>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,43,58,0,0 // addps 0x3a2b(%rip),%xmm13 # 9800 <_sk_clut_4D_sse2+0x2858>
+ .byte 68,15,88,45,33,58,0,0 // addps 0x3a21(%rip),%xmm13 # 97f0 <_sk_clut_4D_sse2+0x284e>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,42,58,0,0 // movaps 0x3a2a(%rip),%xmm10 # 9810 <_sk_clut_4D_sse2+0x2868>
+ .byte 68,15,40,21,32,58,0,0 // movaps 0x3a20(%rip),%xmm10 # 9800 <_sk_clut_4D_sse2+0x285e>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,29,58,0,0 // movaps 0x3a1d(%rip),%xmm10 # 9820 <_sk_clut_4D_sse2+0x2878>
+ .byte 68,15,40,21,19,58,0,0 // movaps 0x3a13(%rip),%xmm10 # 9810 <_sk_clut_4D_sse2+0x286e>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,12,58,0,0 // movaps 0x3a0c(%rip),%xmm10 # 9830 <_sk_clut_4D_sse2+0x2888>
+ .byte 68,15,40,21,2,58,0,0 // movaps 0x3a02(%rip),%xmm10 # 9820 <_sk_clut_4D_sse2+0x287e>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -51883,7 +51902,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,179,57,0,0 // mulps 0x39b3(%rip),%xmm9 # 9840 <_sk_clut_4D_sse2+0x2898>
+ .byte 68,15,89,13,169,57,0,0 // mulps 0x39a9(%rip),%xmm9 # 9830 <_sk_clut_4D_sse2+0x288e>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -51891,7 +51910,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,158,57,0,0 // mulps 0x399e(%rip),%xmm10 # 9850 <_sk_clut_4D_sse2+0x28a8>
+ .byte 68,15,89,21,148,57,0,0 // mulps 0x3994(%rip),%xmm10 # 9840 <_sk_clut_4D_sse2+0x289e>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -51900,8 +51919,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,134,57,0,0 // xorps 0x3986(%rip),%xmm9 # 9860 <_sk_clut_4D_sse2+0x28b8>
- .byte 68,15,89,5,142,57,0,0 // mulps 0x398e(%rip),%xmm8 # 9870 <_sk_clut_4D_sse2+0x28c8>
+ .byte 68,15,87,13,124,57,0,0 // xorps 0x397c(%rip),%xmm9 # 9850 <_sk_clut_4D_sse2+0x28ae>
+ .byte 68,15,89,5,132,57,0,0 // mulps 0x3984(%rip),%xmm8 # 9860 <_sk_clut_4D_sse2+0x28be>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -51922,7 +51941,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,85,57,0,0 // mulps 0x3955(%rip),%xmm9 # 9880 <_sk_clut_4D_sse2+0x28d8>
+ .byte 68,15,89,13,75,57,0,0 // mulps 0x394b(%rip),%xmm9 # 9870 <_sk_clut_4D_sse2+0x28ce>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -51930,7 +51949,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,64,57,0,0 // mulps 0x3940(%rip),%xmm10 # 9890 <_sk_clut_4D_sse2+0x28e8>
+ .byte 68,15,89,21,54,57,0,0 // mulps 0x3936(%rip),%xmm10 # 9880 <_sk_clut_4D_sse2+0x28de>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -51939,8 +51958,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,40,57,0,0 // xorps 0x3928(%rip),%xmm9 # 98a0 <_sk_clut_4D_sse2+0x28f8>
- .byte 68,15,89,5,48,57,0,0 // mulps 0x3930(%rip),%xmm8 # 98b0 <_sk_clut_4D_sse2+0x2908>
+ .byte 68,15,87,13,30,57,0,0 // xorps 0x391e(%rip),%xmm9 # 9890 <_sk_clut_4D_sse2+0x28ee>
+ .byte 68,15,89,5,38,57,0,0 // mulps 0x3926(%rip),%xmm8 # 98a0 <_sk_clut_4D_sse2+0x28fe>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -51958,7 +51977,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,8,57,0,0 // mulps 0x3908(%rip),%xmm9 # 98c0 <_sk_clut_4D_sse2+0x2918>
+ .byte 68,15,89,13,254,56,0,0 // mulps 0x38fe(%rip),%xmm9 # 98b0 <_sk_clut_4D_sse2+0x290e>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -51966,7 +51985,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,244,56,0,0 // xorps 0x38f4(%rip),%xmm0 # 98d0 <_sk_clut_4D_sse2+0x2928>
+ .byte 15,87,5,234,56,0,0 // xorps 0x38ea(%rip),%xmm0 # 98c0 <_sk_clut_4D_sse2+0x291e>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52009,7 +52028,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,154,56,0,0 // movaps 0x389a(%rip),%xmm8 # 98e0 <_sk_clut_4D_sse2+0x2938>
+ .byte 68,15,40,5,144,56,0,0 // movaps 0x3890(%rip),%xmm8 # 98d0 <_sk_clut_4D_sse2+0x292e>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -52017,7 +52036,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,133,56,0,0 // movaps 0x3885(%rip),%xmm12 # 98f0 <_sk_clut_4D_sse2+0x2948>
+ .byte 68,15,40,37,123,56,0,0 // movaps 0x387b(%rip),%xmm12 # 98e0 <_sk_clut_4D_sse2+0x293e>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -52064,8 +52083,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,254,55,0,0 // addps 0x37fe(%rip),%xmm0 # 9900 <_sk_clut_4D_sse2+0x2958>
- .byte 68,15,40,13,6,56,0,0 // movaps 0x3806(%rip),%xmm9 # 9910 <_sk_clut_4D_sse2+0x2968>
+ .byte 15,88,5,244,55,0,0 // addps 0x37f4(%rip),%xmm0 # 98f0 <_sk_clut_4D_sse2+0x294e>
+ .byte 68,15,40,13,252,55,0,0 // movaps 0x37fc(%rip),%xmm9 # 9900 <_sk_clut_4D_sse2+0x295e>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52078,7 +52097,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,245,55,0,0 // addps 0x37f5(%rip),%xmm0 # 9920 <_sk_clut_4D_sse2+0x2978>
+ .byte 15,88,5,235,55,0,0 // addps 0x37eb(%rip),%xmm0 # 9910 <_sk_clut_4D_sse2+0x296e>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52090,8 +52109,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,231,55,0,0 // addps 0x37e7(%rip),%xmm1 # 9930 <_sk_clut_4D_sse2+0x2988>
- .byte 68,15,40,13,239,55,0,0 // movaps 0x37ef(%rip),%xmm9 # 9940 <_sk_clut_4D_sse2+0x2998>
+ .byte 15,88,13,221,55,0,0 // addps 0x37dd(%rip),%xmm1 # 9920 <_sk_clut_4D_sse2+0x297e>
+ .byte 68,15,40,13,229,55,0,0 // movaps 0x37e5(%rip),%xmm9 # 9930 <_sk_clut_4D_sse2+0x298e>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52104,7 +52123,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,221,55,0,0 // addps 0x37dd(%rip),%xmm1 # 9950 <_sk_clut_4D_sse2+0x29a8>
+ .byte 15,88,13,211,55,0,0 // addps 0x37d3(%rip),%xmm1 # 9940 <_sk_clut_4D_sse2+0x299e>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52116,13 +52135,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,208,55,0,0 // addps 0x37d0(%rip),%xmm0 # 9960 <_sk_clut_4D_sse2+0x29b8>
- .byte 68,15,40,13,216,55,0,0 // movaps 0x37d8(%rip),%xmm9 # 9970 <_sk_clut_4D_sse2+0x29c8>
+ .byte 15,88,5,198,55,0,0 // addps 0x37c6(%rip),%xmm0 # 9950 <_sk_clut_4D_sse2+0x29ae>
+ .byte 68,15,40,13,206,55,0,0 // movaps 0x37ce(%rip),%xmm9 # 9960 <_sk_clut_4D_sse2+0x29be>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,212,55,0,0 // mulps 0x37d4(%rip),%xmm9 # 9980 <_sk_clut_4D_sse2+0x29d8>
- .byte 68,15,88,13,220,55,0,0 // addps 0x37dc(%rip),%xmm9 # 9990 <_sk_clut_4D_sse2+0x29e8>
+ .byte 68,15,89,13,202,55,0,0 // mulps 0x37ca(%rip),%xmm9 # 9970 <_sk_clut_4D_sse2+0x29ce>
+ .byte 68,15,88,13,210,55,0,0 // addps 0x37d2(%rip),%xmm9 # 9980 <_sk_clut_4D_sse2+0x29de>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52135,16 +52154,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,203,55,0,0 // addps 0x37cb(%rip),%xmm0 # 99a0 <_sk_clut_4D_sse2+0x29f8>
- .byte 68,15,40,13,211,55,0,0 // movaps 0x37d3(%rip),%xmm9 # 99b0 <_sk_clut_4D_sse2+0x2a08>
+ .byte 15,88,5,193,55,0,0 // addps 0x37c1(%rip),%xmm0 # 9990 <_sk_clut_4D_sse2+0x29ee>
+ .byte 68,15,40,13,201,55,0,0 // movaps 0x37c9(%rip),%xmm9 # 99a0 <_sk_clut_4D_sse2+0x29fe>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,215,55,0,0 // movaps 0x37d7(%rip),%xmm8 # 99c0 <_sk_clut_4D_sse2+0x2a18>
+ .byte 68,15,40,5,205,55,0,0 // movaps 0x37cd(%rip),%xmm8 # 99b0 <_sk_clut_4D_sse2+0x2a0e>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,219,55,0,0 // addps 0x37db(%rip),%xmm8 # 99d0 <_sk_clut_4D_sse2+0x2a28>
+ .byte 68,15,88,5,209,55,0,0 // addps 0x37d1(%rip),%xmm8 # 99c0 <_sk_clut_4D_sse2+0x2a1e>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,223,55,0,0 // addps 0x37df(%rip),%xmm8 # 99e0 <_sk_clut_4D_sse2+0x2a38>
+ .byte 68,15,88,5,213,55,0,0 // addps 0x37d5(%rip),%xmm8 # 99d0 <_sk_clut_4D_sse2+0x2a2e>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,227,55,0,0 // addps 0x37e3(%rip),%xmm8 # 99f0 <_sk_clut_4D_sse2+0x2a48>
+ .byte 68,15,88,5,217,55,0,0 // addps 0x37d9(%rip),%xmm8 # 99e0 <_sk_clut_4D_sse2+0x2a3e>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52154,17 +52173,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,221,55,0,0 // movaps 0x37dd(%rip),%xmm8 # 9a00 <_sk_clut_4D_sse2+0x2a58>
+ .byte 68,15,40,5,211,55,0,0 // movaps 0x37d3(%rip),%xmm8 # 99f0 <_sk_clut_4D_sse2+0x2a4e>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,217,55,0,0 // movaps 0x37d9(%rip),%xmm10 # 9a10 <_sk_clut_4D_sse2+0x2a68>
+ .byte 68,15,40,21,207,55,0,0 // movaps 0x37cf(%rip),%xmm10 # 9a00 <_sk_clut_4D_sse2+0x2a5e>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,221,55,0,0 // addps 0x37dd(%rip),%xmm10 # 9a20 <_sk_clut_4D_sse2+0x2a78>
+ .byte 68,15,88,21,211,55,0,0 // addps 0x37d3(%rip),%xmm10 # 9a10 <_sk_clut_4D_sse2+0x2a6e>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,217,55,0,0 // addps 0x37d9(%rip),%xmm10 # 9a30 <_sk_clut_4D_sse2+0x2a88>
+ .byte 68,15,88,21,207,55,0,0 // addps 0x37cf(%rip),%xmm10 # 9a20 <_sk_clut_4D_sse2+0x2a7e>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52176,11 +52195,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,204,55,0,0 // addps 0x37cc(%rip),%xmm0 # 9a40 <_sk_clut_4D_sse2+0x2a98>
+ .byte 15,88,5,194,55,0,0 // addps 0x37c2(%rip),%xmm0 # 9a30 <_sk_clut_4D_sse2+0x2a8e>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,204,55,0,0 // mulps 0x37cc(%rip),%xmm8 # 9a50 <_sk_clut_4D_sse2+0x2aa8>
- .byte 68,15,88,5,212,55,0,0 // addps 0x37d4(%rip),%xmm8 # 9a60 <_sk_clut_4D_sse2+0x2ab8>
+ .byte 68,15,89,5,194,55,0,0 // mulps 0x37c2(%rip),%xmm8 # 9a40 <_sk_clut_4D_sse2+0x2a9e>
+ .byte 68,15,88,5,202,55,0,0 // addps 0x37ca(%rip),%xmm8 # 9a50 <_sk_clut_4D_sse2+0x2aae>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52193,13 +52212,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,194,55,0,0 // addps 0x37c2(%rip),%xmm1 # 9a70 <_sk_clut_4D_sse2+0x2ac8>
- .byte 68,15,40,13,202,55,0,0 // movaps 0x37ca(%rip),%xmm9 # 9a80 <_sk_clut_4D_sse2+0x2ad8>
+ .byte 15,88,13,184,55,0,0 // addps 0x37b8(%rip),%xmm1 # 9a60 <_sk_clut_4D_sse2+0x2abe>
+ .byte 68,15,40,13,192,55,0,0 // movaps 0x37c0(%rip),%xmm9 # 9a70 <_sk_clut_4D_sse2+0x2ace>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,198,55,0,0 // mulps 0x37c6(%rip),%xmm9 # 9a90 <_sk_clut_4D_sse2+0x2ae8>
- .byte 68,15,88,13,206,55,0,0 // addps 0x37ce(%rip),%xmm9 # 9aa0 <_sk_clut_4D_sse2+0x2af8>
+ .byte 68,15,89,13,188,55,0,0 // mulps 0x37bc(%rip),%xmm9 # 9a80 <_sk_clut_4D_sse2+0x2ade>
+ .byte 68,15,88,13,196,55,0,0 // addps 0x37c4(%rip),%xmm9 # 9a90 <_sk_clut_4D_sse2+0x2aee>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52212,16 +52231,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,188,55,0,0 // addps 0x37bc(%rip),%xmm1 # 9ab0 <_sk_clut_4D_sse2+0x2b08>
- .byte 68,15,40,13,196,55,0,0 // movaps 0x37c4(%rip),%xmm9 # 9ac0 <_sk_clut_4D_sse2+0x2b18>
+ .byte 15,88,13,178,55,0,0 // addps 0x37b2(%rip),%xmm1 # 9aa0 <_sk_clut_4D_sse2+0x2afe>
+ .byte 68,15,40,13,186,55,0,0 // movaps 0x37ba(%rip),%xmm9 # 9ab0 <_sk_clut_4D_sse2+0x2b0e>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,200,55,0,0 // movaps 0x37c8(%rip),%xmm8 # 9ad0 <_sk_clut_4D_sse2+0x2b28>
+ .byte 68,15,40,5,190,55,0,0 // movaps 0x37be(%rip),%xmm8 # 9ac0 <_sk_clut_4D_sse2+0x2b1e>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,204,55,0,0 // addps 0x37cc(%rip),%xmm8 # 9ae0 <_sk_clut_4D_sse2+0x2b38>
+ .byte 68,15,88,5,194,55,0,0 // addps 0x37c2(%rip),%xmm8 # 9ad0 <_sk_clut_4D_sse2+0x2b2e>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,208,55,0,0 // addps 0x37d0(%rip),%xmm8 # 9af0 <_sk_clut_4D_sse2+0x2b48>
+ .byte 68,15,88,5,198,55,0,0 // addps 0x37c6(%rip),%xmm8 # 9ae0 <_sk_clut_4D_sse2+0x2b3e>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,212,55,0,0 // addps 0x37d4(%rip),%xmm8 # 9b00 <_sk_clut_4D_sse2+0x2b58>
+ .byte 68,15,88,5,202,55,0,0 // addps 0x37ca(%rip),%xmm8 # 9af0 <_sk_clut_4D_sse2+0x2b4e>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52231,17 +52250,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,206,55,0,0 // movaps 0x37ce(%rip),%xmm8 # 9b10 <_sk_clut_4D_sse2+0x2b68>
+ .byte 68,15,40,5,196,55,0,0 // movaps 0x37c4(%rip),%xmm8 # 9b00 <_sk_clut_4D_sse2+0x2b5e>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,201,55,0,0 // movaps 0x37c9(%rip),%xmm10 # 9b20 <_sk_clut_4D_sse2+0x2b78>
+ .byte 68,15,40,21,191,55,0,0 // movaps 0x37bf(%rip),%xmm10 # 9b10 <_sk_clut_4D_sse2+0x2b6e>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,205,55,0,0 // addps 0x37cd(%rip),%xmm10 # 9b30 <_sk_clut_4D_sse2+0x2b88>
+ .byte 68,15,88,21,195,55,0,0 // addps 0x37c3(%rip),%xmm10 # 9b20 <_sk_clut_4D_sse2+0x2b7e>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,201,55,0,0 // addps 0x37c9(%rip),%xmm10 # 9b40 <_sk_clut_4D_sse2+0x2b98>
+ .byte 68,15,88,21,191,55,0,0 // addps 0x37bf(%rip),%xmm10 # 9b30 <_sk_clut_4D_sse2+0x2b8e>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -52253,11 +52272,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,187,55,0,0 // addps 0x37bb(%rip),%xmm1 # 9b50 <_sk_clut_4D_sse2+0x2ba8>
+ .byte 15,88,13,177,55,0,0 // addps 0x37b1(%rip),%xmm1 # 9b40 <_sk_clut_4D_sse2+0x2b9e>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,187,55,0,0 // mulps 0x37bb(%rip),%xmm8 # 9b60 <_sk_clut_4D_sse2+0x2bb8>
- .byte 68,15,88,5,195,55,0,0 // addps 0x37c3(%rip),%xmm8 # 9b70 <_sk_clut_4D_sse2+0x2bc8>
+ .byte 68,15,89,5,177,55,0,0 // mulps 0x37b1(%rip),%xmm8 # 9b50 <_sk_clut_4D_sse2+0x2bae>
+ .byte 68,15,88,5,185,55,0,0 // addps 0x37b9(%rip),%xmm8 # 9b60 <_sk_clut_4D_sse2+0x2bbe>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52406,7 +52425,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,65,15,111,198 // movdqa %xmm14,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,45,205,53,0,0 // movdqa 0x35cd(%rip),%xmm5 # 9b90 <_sk_clut_4D_sse2+0x2be8>
+ .byte 102,15,111,45,195,53,0,0 // movdqa 0x35c3(%rip),%xmm5 # 9b80 <_sk_clut_4D_sse2+0x2bde>
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,197 // pmuludq %xmm5,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -52429,7 +52448,7 @@ _sk_clut_3D_sse2:
.byte 15,20,241 // unpcklps %xmm1,%xmm6
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,254,13,113,53,0,0 // paddd 0x3571(%rip),%xmm1 # 9ba0 <_sk_clut_4D_sse2+0x2bf8>
+ .byte 102,15,254,13,103,53,0,0 // paddd 0x3567(%rip),%xmm1 # 9b90 <_sk_clut_4D_sse2+0x2bee>
.byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
.byte 102,73,15,126,233 // movq %xmm5,%r9
.byte 102,73,15,126,202 // movq %xmm1,%r10
@@ -52446,7 +52465,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 15,20,249 // unpcklps %xmm1,%xmm7
- .byte 102,15,254,5,55,53,0,0 // paddd 0x3537(%rip),%xmm0 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,254,5,45,53,0,0 // paddd 0x352d(%rip),%xmm0 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,201 // movq %xmm1,%r9
.byte 102,73,15,126,194 // movq %xmm0,%r10
@@ -52463,7 +52482,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,205 // unpcklps %xmm5,%xmm1
.byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 15,40,45,190,52,0,0 // movaps 0x34be(%rip),%xmm5 # 9b80 <_sk_clut_4D_sse2+0x2bd8>
+ .byte 15,40,45,180,52,0,0 // movaps 0x34b4(%rip),%xmm5 # 9b70 <_sk_clut_4D_sse2+0x2bce>
.byte 15,88,229 // addps %xmm5,%xmm4
.byte 15,41,100,36,192 // movaps %xmm4,-0x40(%rsp)
.byte 68,15,88,213 // addps %xmm5,%xmm10
@@ -52478,7 +52497,7 @@ _sk_clut_3D_sse2:
.byte 102,15,127,68,36,160 // movdqa %xmm0,-0x60(%rsp)
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4
- .byte 102,15,111,5,135,52,0,0 // movdqa 0x3487(%rip),%xmm0 # 9b90 <_sk_clut_4D_sse2+0x2be8>
+ .byte 102,15,111,5,125,52,0,0 // movdqa 0x347d(%rip),%xmm0 # 9b80 <_sk_clut_4D_sse2+0x2bde>
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2
.byte 102,15,244,224 // pmuludq %xmm0,%xmm4
@@ -52500,7 +52519,7 @@ _sk_clut_3D_sse2:
.byte 15,20,227 // unpcklps %xmm3,%xmm4
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,254,29,48,52,0,0 // paddd 0x3430(%rip),%xmm3 # 9ba0 <_sk_clut_4D_sse2+0x2bf8>
+ .byte 102,15,254,29,38,52,0,0 // paddd 0x3426(%rip),%xmm3 # 9b90 <_sk_clut_4D_sse2+0x2bee>
.byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5
.byte 102,73,15,126,233 // movq %xmm5,%r9
.byte 102,73,15,126,218 // movq %xmm3,%r10
@@ -52517,7 +52536,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 15,20,221 // unpcklps %xmm5,%xmm3
- .byte 102,15,254,21,246,51,0,0 // paddd 0x33f6(%rip),%xmm2 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,254,21,236,51,0,0 // paddd 0x33ec(%rip),%xmm2 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
.byte 102,73,15,126,193 // movq %xmm0,%r9
.byte 102,73,15,126,210 // movq %xmm2,%r10
@@ -52579,7 +52598,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 68,15,20,199 // unpcklps %xmm7,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,68,15,111,21,209,50,0,0 // movdqa 0x32d1(%rip),%xmm10 # 9ba0 <_sk_clut_4D_sse2+0x2bf8>
+ .byte 102,68,15,111,21,199,50,0,0 // movdqa 0x32c7(%rip),%xmm10 # 9b90 <_sk_clut_4D_sse2+0x2bee>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,249 // movq %xmm7,%r9
@@ -52597,7 +52616,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,205 // unpcklps %xmm5,%xmm1
.byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,111,45,146,50,0,0 // movdqa 0x3292(%rip),%xmm5 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,111,45,136,50,0,0 // movdqa 0x3288(%rip),%xmm5 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,254,197 // paddd %xmm5,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
.byte 102,73,15,126,233 // movq %xmm5,%r9
@@ -52655,7 +52674,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
.byte 68,15,20,223 // unpcklps %xmm7,%xmm11
.byte 68,15,20,221 // unpcklps %xmm5,%xmm11
- .byte 102,15,111,45,141,49,0,0 // movdqa 0x318d(%rip),%xmm5 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,111,45,131,49,0,0 // movdqa 0x3183(%rip),%xmm5 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,254,245 // paddd %xmm5,%xmm6
.byte 102,15,111,253 // movdqa %xmm5,%xmm7
.byte 102,15,112,238,78 // pshufd $0x4e,%xmm6,%xmm5
@@ -52702,7 +52721,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,5,158,48,0,0 // movdqa 0x309e(%rip),%xmm0 # 9b90 <_sk_clut_4D_sse2+0x2be8>
+ .byte 102,15,111,5,148,48,0,0 // movdqa 0x3094(%rip),%xmm0 # 9b80 <_sk_clut_4D_sse2+0x2bde>
.byte 102,15,244,200 // pmuludq %xmm0,%xmm1
.byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
@@ -52724,7 +52743,7 @@ _sk_clut_3D_sse2:
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 15,20,202 // unpcklps %xmm2,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,111,5,72,48,0,0 // movdqa 0x3048(%rip),%xmm0 # 9ba0 <_sk_clut_4D_sse2+0x2bf8>
+ .byte 102,15,111,5,62,48,0,0 // movdqa 0x303e(%rip),%xmm0 # 9b90 <_sk_clut_4D_sse2+0x2bee>
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
@@ -52800,7 +52819,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,254,29,9,47,0,0 // paddd 0x2f09(%rip),%xmm3 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,254,29,255,46,0,0 // paddd 0x2eff(%rip),%xmm3 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
.byte 102,73,15,126,193 // movq %xmm0,%r9
.byte 102,73,15,126,218 // movq %xmm3,%r10
@@ -52851,7 +52870,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,201 // unpcklps %xmm1,%xmm9
.byte 68,15,20,202 // unpcklps %xmm2,%xmm9
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,254,13,21,46,0,0 // paddd 0x2e15(%rip),%xmm1 # 9ba0 <_sk_clut_4D_sse2+0x2bf8>
+ .byte 102,15,254,13,11,46,0,0 // paddd 0x2e0b(%rip),%xmm1 # 9b90 <_sk_clut_4D_sse2+0x2bee>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,209 // movq %xmm2,%r9
.byte 102,73,15,126,202 // movq %xmm1,%r10
@@ -52868,7 +52887,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
.byte 68,15,20,242 // unpcklps %xmm2,%xmm14
.byte 68,15,20,241 // unpcklps %xmm1,%xmm14
- .byte 102,15,254,5,216,45,0,0 // paddd 0x2dd8(%rip),%xmm0 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,254,5,206,45,0,0 // paddd 0x2dce(%rip),%xmm0 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,201 // movq %xmm1,%r9
.byte 102,73,15,126,194 // movq %xmm0,%r10
@@ -52906,7 +52925,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,111,37,27,45,0,0 // movdqa 0x2d1b(%rip),%xmm4 # 9ba0 <_sk_clut_4D_sse2+0x2bf8>
+ .byte 102,15,111,37,17,45,0,0 // movdqa 0x2d11(%rip),%xmm4 # 9b90 <_sk_clut_4D_sse2+0x2bee>
.byte 102,15,254,226 // paddd %xmm2,%xmm4
.byte 102,15,112,204,78 // pshufd $0x4e,%xmm4,%xmm1
.byte 102,73,15,126,201 // movq %xmm1,%r9
@@ -52924,7 +52943,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,254,21,221,44,0,0 // paddd 0x2cdd(%rip),%xmm2 # 9bb0 <_sk_clut_4D_sse2+0x2c08>
+ .byte 102,15,254,21,211,44,0,0 // paddd 0x2cd3(%rip),%xmm2 # 9ba0 <_sk_clut_4D_sse2+0x2bfe>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
.byte 102,73,15,126,210 // movq %xmm2,%r10
@@ -53077,7 +53096,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,209 // paddd %xmm1,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,21,119,42,0,0 // movdqa 0x2a77(%rip),%xmm10 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,68,15,111,21,109,42,0,0 // movdqa 0x2a6d(%rip),%xmm10 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,15,112,235,245 // pshufd $0xf5,%xmm3,%xmm5
.byte 102,65,15,244,218 // pmuludq %xmm10,%xmm3
.byte 102,15,112,227,232 // pshufd $0xe8,%xmm3,%xmm4
@@ -53100,7 +53119,7 @@ _sk_clut_4D_sse2:
.byte 15,20,222 // unpcklps %xmm6,%xmm3
.byte 15,20,221 // unpcklps %xmm5,%xmm3
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,254,45,25,42,0,0 // paddd 0x2a19(%rip),%xmm5 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,254,45,15,42,0,0 // paddd 0x2a0f(%rip),%xmm5 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,241 // movq %xmm6,%r9
.byte 102,73,15,126,234 // movq %xmm5,%r10
@@ -53117,7 +53136,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,254,37,223,41,0,0 // paddd 0x29df(%rip),%xmm4 # 9bf0 <_sk_clut_4D_sse2+0x2c48>
+ .byte 102,15,254,37,213,41,0,0 // paddd 0x29d5(%rip),%xmm4 # 9be0 <_sk_clut_4D_sse2+0x2c3e>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,233 // movq %xmm5,%r9
.byte 102,73,15,126,226 // movq %xmm4,%r10
@@ -53134,7 +53153,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
.byte 15,20,239 // unpcklps %xmm7,%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 15,40,61,102,41,0,0 // movaps 0x2966(%rip),%xmm7 # 9bc0 <_sk_clut_4D_sse2+0x2c18>
+ .byte 15,40,61,92,41,0,0 // movaps 0x295c(%rip),%xmm7 # 9bb0 <_sk_clut_4D_sse2+0x2c0e>
.byte 68,15,88,199 // addps %xmm7,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,207 // addps %xmm7,%xmm9
@@ -53172,7 +53191,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,234 // unpcklps %xmm2,%xmm13
.byte 68,15,20,239 // unpcklps %xmm7,%xmm13
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,254,21,205,40,0,0 // paddd 0x28cd(%rip),%xmm2 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,254,21,195,40,0,0 // paddd 0x28c3(%rip),%xmm2 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7
.byte 102,73,15,126,249 // movq %xmm7,%r9
.byte 102,73,15,126,210 // movq %xmm2,%r10
@@ -53189,7 +53208,7 @@ _sk_clut_4D_sse2:
.byte 243,70,15,16,12,139 // movss (%rbx,%r9,4),%xmm9
.byte 65,15,20,209 // unpcklps %xmm9,%xmm2
.byte 15,20,215 // unpcklps %xmm7,%xmm2
- .byte 102,15,254,5,146,40,0,0 // paddd 0x2892(%rip),%xmm0 # 9bf0 <_sk_clut_4D_sse2+0x2c48>
+ .byte 102,15,254,5,136,40,0,0 // paddd 0x2888(%rip),%xmm0 # 9be0 <_sk_clut_4D_sse2+0x2c3e>
.byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7
.byte 102,73,15,126,249 // movq %xmm7,%r9
.byte 102,73,15,126,194 // movq %xmm0,%r10
@@ -53230,7 +53249,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
.byte 102,15,254,92,36,160 // paddd -0x60(%rsp),%xmm3
.byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4
- .byte 102,68,15,111,53,190,39,0,0 // movdqa 0x27be(%rip),%xmm14 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,68,15,111,53,180,39,0,0 // movdqa 0x27b4(%rip),%xmm14 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,65,15,244,222 // pmuludq %xmm14,%xmm3
.byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
.byte 102,65,15,244,230 // pmuludq %xmm14,%xmm4
@@ -53251,7 +53270,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,228 // unpcklps %xmm4,%xmm12
.byte 68,15,20,229 // unpcklps %xmm5,%xmm12
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,111,61,103,39,0,0 // movdqa 0x2767(%rip),%xmm7 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,111,61,93,39,0,0 // movdqa 0x275d(%rip),%xmm7 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,254,231 // paddd %xmm7,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,233 // movq %xmm5,%r9
@@ -53269,7 +53288,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,68,15,111,5,40,39,0,0 // movdqa 0x2728(%rip),%xmm8 # 9bf0 <_sk_clut_4D_sse2+0x2c48>
+ .byte 102,68,15,111,5,30,39,0,0 // movdqa 0x271e(%rip),%xmm8 # 9be0 <_sk_clut_4D_sse2+0x2c3e>
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
@@ -53383,7 +53402,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,108,36,160 // movdqa -0x60(%rsp),%xmm13
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,4,37,0,0 // movdqa 0x2504(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,15,111,29,250,36,0,0 // movdqa 0x24fa(%rip),%xmm3 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
@@ -53405,7 +53424,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,202 // unpcklps %xmm2,%xmm9
.byte 68,15,20,205 // unpcklps %xmm5,%xmm9
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,111,29,171,36,0,0 // movdqa 0x24ab(%rip),%xmm3 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,111,29,161,36,0,0 // movdqa 0x24a1(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5
.byte 102,73,15,126,233 // movq %xmm5,%r9
@@ -53513,7 +53532,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
.byte 102,65,15,254,213 // paddd %xmm13,%xmm2
.byte 102,15,112,218,245 // pshufd $0xf5,%xmm2,%xmm3
- .byte 102,15,111,5,204,34,0,0 // movdqa 0x22cc(%rip),%xmm0 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,15,111,5,194,34,0,0 // movdqa 0x22c2(%rip),%xmm0 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,112,250,232 // pshufd $0xe8,%xmm2,%xmm7
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
@@ -53534,7 +53553,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,202 // unpcklps %xmm2,%xmm9
.byte 68,15,20,203 // unpcklps %xmm3,%xmm9
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,111,5,119,34,0,0 // movdqa 0x2277(%rip),%xmm0 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,111,5,109,34,0,0 // movdqa 0x226d(%rip),%xmm0 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,217 // movq %xmm3,%r9
@@ -53552,7 +53571,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
.byte 15,20,243 // unpcklps %xmm3,%xmm6
.byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 102,68,15,111,45,56,34,0,0 // movdqa 0x2238(%rip),%xmm13 # 9bf0 <_sk_clut_4D_sse2+0x2c48>
+ .byte 102,68,15,111,45,46,34,0,0 // movdqa 0x222e(%rip),%xmm13 # 9be0 <_sk_clut_4D_sse2+0x2c3e>
.byte 102,65,15,254,253 // paddd %xmm13,%xmm7
.byte 102,15,112,215,78 // pshufd $0x4e,%xmm7,%xmm2
.byte 102,73,15,126,209 // movq %xmm2,%r9
@@ -53572,7 +53591,7 @@ _sk_clut_4D_sse2:
.byte 15,20,250 // unpcklps %xmm2,%xmm7
.byte 102,68,15,254,220 // paddd %xmm4,%xmm11
.byte 102,65,15,112,219,245 // pshufd $0xf5,%xmm11,%xmm3
- .byte 102,15,111,37,190,33,0,0 // movdqa 0x21be(%rip),%xmm4 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,15,111,37,180,33,0,0 // movdqa 0x21b4(%rip),%xmm4 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,68,15,244,220 // pmuludq %xmm4,%xmm11
.byte 102,65,15,112,211,232 // pshufd $0xe8,%xmm11,%xmm2
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
@@ -53673,7 +53692,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,0,32,0,0 // movdqa 0x2000(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,15,111,29,246,31,0,0 // movdqa 0x1ff6(%rip),%xmm3 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
@@ -53695,7 +53714,7 @@ _sk_clut_4D_sse2:
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 15,20,211 // unpcklps %xmm3,%xmm2
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,111,61,169,31,0,0 // movdqa 0x1fa9(%rip),%xmm7 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,111,61,159,31,0,0 // movdqa 0x1f9f(%rip),%xmm7 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
@@ -53713,7 +53732,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,221 // unpcklps %xmm5,%xmm3
.byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 102,68,15,111,13,106,31,0,0 // movdqa 0x1f6a(%rip),%xmm9 # 9bf0 <_sk_clut_4D_sse2+0x2c48>
+ .byte 102,68,15,111,13,96,31,0,0 // movdqa 0x1f60(%rip),%xmm9 # 9be0 <_sk_clut_4D_sse2+0x2c3e>
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
@@ -53825,7 +53844,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,246 // unpcklps %xmm6,%xmm14
.byte 68,15,20,243 // unpcklps %xmm3,%xmm14
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,68,15,111,21,109,29,0,0 // movdqa 0x1d6d(%rip),%xmm10 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,68,15,111,21,99,29,0,0 // movdqa 0x1d63(%rip),%xmm10 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
.byte 102,73,15,126,241 // movq %xmm6,%r9
@@ -53946,7 +53965,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm6
.byte 102,15,254,198 // paddd %xmm6,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,29,71,27,0,0 // movdqa 0x1b47(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,15,111,29,61,27,0,0 // movdqa 0x1b3d(%rip),%xmm3 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
@@ -53968,7 +53987,7 @@ _sk_clut_4D_sse2:
.byte 15,20,195 // unpcklps %xmm3,%xmm0
.byte 15,20,193 // unpcklps %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,68,15,111,5,239,26,0,0 // movdqa 0x1aef(%rip),%xmm8 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,68,15,111,5,229,26,0,0 // movdqa 0x1ae5(%rip),%xmm8 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,65,15,254,200 // paddd %xmm8,%xmm1
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
.byte 102,73,15,126,217 // movq %xmm3,%r9
@@ -54074,7 +54093,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,124,36,128 // paddd -0x80(%rsp),%xmm7
.byte 102,15,254,247 // paddd %xmm7,%xmm6
.byte 102,15,112,206,245 // pshufd $0xf5,%xmm6,%xmm1
- .byte 102,15,111,21,17,25,0,0 // movdqa 0x1911(%rip),%xmm2 # 9bd0 <_sk_clut_4D_sse2+0x2c28>
+ .byte 102,15,111,21,7,25,0,0 // movdqa 0x1907(%rip),%xmm2 # 9bc0 <_sk_clut_4D_sse2+0x2c1e>
.byte 102,15,244,242 // pmuludq %xmm2,%xmm6
.byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
@@ -54096,7 +54115,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,201 // unpcklps %xmm1,%xmm9
.byte 68,15,20,202 // unpcklps %xmm2,%xmm9
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,254,13,184,24,0,0 // paddd 0x18b8(%rip),%xmm1 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,254,13,174,24,0,0 // paddd 0x18ae(%rip),%xmm1 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,209 // movq %xmm2,%r9
.byte 102,73,15,126,202 // movq %xmm1,%r10
@@ -54152,7 +54171,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,111,53,190,23,0,0 // movdqa 0x17be(%rip),%xmm6 # 9be0 <_sk_clut_4D_sse2+0x2c38>
+ .byte 102,15,111,53,180,23,0,0 // movdqa 0x17b4(%rip),%xmm6 # 9bd0 <_sk_clut_4D_sse2+0x2c2e>
.byte 102,15,254,242 // paddd %xmm2,%xmm6
.byte 102,15,112,206,78 // pshufd $0x4e,%xmm6,%xmm1
.byte 102,73,15,126,201 // movq %xmm1,%r9
@@ -54170,7 +54189,7 @@ _sk_clut_4D_sse2:
.byte 243,70,15,16,60,139 // movss (%rbx,%r9,4),%xmm15
.byte 65,15,20,207 // unpcklps %xmm15,%xmm1
.byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,254,21,127,23,0,0 // paddd 0x177f(%rip),%xmm2 # 9bf0 <_sk_clut_4D_sse2+0x2c48>
+ .byte 102,15,254,21,117,23,0,0 // paddd 0x1775(%rip),%xmm2 # 9be0 <_sk_clut_4D_sse2+0x2c3e>
.byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7
.byte 102,73,15,126,249 // movq %xmm7,%r9
.byte 102,73,15,126,210 // movq %xmm2,%r10
@@ -54232,7 +54251,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,164,22,0,0 // movaps 0x16a4(%rip),%xmm3 # 9c00 <_sk_clut_4D_sse2+0x2c58>
+ .byte 15,40,29,154,22,0,0 // movaps 0x169a(%rip),%xmm3 # 9bf0 <_sk_clut_4D_sse2+0x2c4e>
.byte 15,40,100,36,112 // movaps 0x70(%rsp),%xmm4
.byte 15,40,172,36,128,0,0,0 // movaps 0x80(%rsp),%xmm5
.byte 15,40,180,36,144,0,0,0 // movaps 0x90(%rsp),%xmm6
@@ -54397,9 +54416,9 @@ BALIGN16
.byte 128,191,0,0,224,64,0 // cmpb $0x0,0x40e00000(%rdi)
.byte 0,224 // add %ah,%al
.byte 64,0,0 // add %al,(%rax)
- .byte 224,64 // loopne 878c <.literal16+0x1fc>
+ .byte 224,64 // loopne 877c <.literal16+0x1fc>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 8790 <.literal16+0x200>
+ .byte 224,64 // loopne 8780 <.literal16+0x200>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -54419,13 +54438,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87b1 <.literal16+0x221>
+ .byte 71,225,61 // rex.RXB loope 87a1 <.literal16+0x221>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87b5 <.literal16+0x225>
+ .byte 71,225,61 // rex.RXB loope 87a5 <.literal16+0x225>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87b9 <.literal16+0x229>
+ .byte 71,225,61 // rex.RXB loope 87a9 <.literal16+0x229>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87bd <.literal16+0x22d>
+ .byte 71,225,61 // rex.RXB loope 87ad <.literal16+0x22d>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
@@ -54450,13 +54469,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87f1 <.literal16+0x261>
+ .byte 71,225,61 // rex.RXB loope 87e1 <.literal16+0x261>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87f5 <.literal16+0x265>
+ .byte 71,225,61 // rex.RXB loope 87e5 <.literal16+0x265>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87f9 <.literal16+0x269>
+ .byte 71,225,61 // rex.RXB loope 87e9 <.literal16+0x269>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 87fd <.literal16+0x26d>
+ .byte 71,225,61 // rex.RXB loope 87ed <.literal16+0x26d>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
@@ -54481,13 +54500,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 8831 <.literal16+0x2a1>
+ .byte 71,225,61 // rex.RXB loope 8821 <.literal16+0x2a1>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 8835 <.literal16+0x2a5>
+ .byte 71,225,61 // rex.RXB loope 8825 <.literal16+0x2a5>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 8839 <.literal16+0x2a9>
+ .byte 71,225,61 // rex.RXB loope 8829 <.literal16+0x2a9>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 883d <.literal16+0x2ad>
+ .byte 71,225,61 // rex.RXB loope 882d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
@@ -54512,13 +54531,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 8871 <.literal16+0x2e1>
+ .byte 71,225,61 // rex.RXB loope 8861 <.literal16+0x2e1>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 8875 <.literal16+0x2e5>
+ .byte 71,225,61 // rex.RXB loope 8865 <.literal16+0x2e5>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 8879 <.literal16+0x2e9>
+ .byte 71,225,61 // rex.RXB loope 8869 <.literal16+0x2e9>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 887d <.literal16+0x2ed>
+ .byte 71,225,61 // rex.RXB loope 886d <.literal16+0x2ed>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
@@ -54539,11 +54558,11 @@ BALIGN16
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax)
.byte 67,0,0 // rex.XB add %al,(%r8)
- .byte 127,67 // jg 88bb <.literal16+0x32b>
+ .byte 127,67 // jg 88ab <.literal16+0x32b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 88bf <.literal16+0x32f>
+ .byte 127,67 // jg 88af <.literal16+0x32f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 88c3 <.literal16+0x333>
+ .byte 127,67 // jg 88b3 <.literal16+0x333>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
@@ -54835,13 +54854,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 8b19 <.literal16+0x589>
+ .byte 224,7 // loopne 8b09 <.literal16+0x589>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 8b1d <.literal16+0x58d>
+ .byte 224,7 // loopne 8b0d <.literal16+0x58d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 8b21 <.literal16+0x591>
+ .byte 224,7 // loopne 8b11 <.literal16+0x591>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 8b25 <.literal16+0x595>
+ .byte 224,7 // loopne 8b15 <.literal16+0x595>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -54906,11 +54925,11 @@ BALIGN16
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 8bfb <.literal16+0x66b>
+ .byte 127,67 // jg 8beb <.literal16+0x66b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 8bff <.literal16+0x66f>
+ .byte 127,67 // jg 8bef <.literal16+0x66f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 8c03 <.literal16+0x673>
+ .byte 127,67 // jg 8bf3 <.literal16+0x673>
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
.byte 128,59,129 // cmpb $0x81,(%rbx)
.byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
@@ -54925,16 +54944,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 8bf4 <.literal16+0x664>
+ .byte 127,0 // jg 8be4 <.literal16+0x664>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8bf8 <.literal16+0x668>
+ .byte 127,0 // jg 8be8 <.literal16+0x668>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8bfc <.literal16+0x66c>
+ .byte 127,0 // jg 8bec <.literal16+0x66c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8c00 <.literal16+0x670>
+ .byte 127,0 // jg 8bf0 <.literal16+0x670>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -54943,7 +54962,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 8c85 <.literal16+0x6f5>
+ .byte 119,115 // ja 8c75 <.literal16+0x6f5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -54954,7 +54973,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 8be9 <.literal16+0x659>
+ .byte 117,191 // jne 8bd9 <.literal16+0x659>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -54966,7 +54985,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3cc2a <_sk_clut_4D_sse2+0xffffffffe9a35c82>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3cc1a <_sk_clut_4D_sse2+0xffffffffe9a35c78>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -55020,16 +55039,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 8cc4 <.literal16+0x734>
+ .byte 127,0 // jg 8cb4 <.literal16+0x734>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8cc8 <.literal16+0x738>
+ .byte 127,0 // jg 8cb8 <.literal16+0x738>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8ccc <.literal16+0x73c>
+ .byte 127,0 // jg 8cbc <.literal16+0x73c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8cd0 <.literal16+0x740>
+ .byte 127,0 // jg 8cc0 <.literal16+0x740>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -55038,7 +55057,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 8d55 <.literal16+0x7c5>
+ .byte 119,115 // ja 8d45 <.literal16+0x7c5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -55049,7 +55068,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 8cb9 <.literal16+0x729>
+ .byte 117,191 // jne 8ca9 <.literal16+0x729>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -55061,7 +55080,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3ccfa <_sk_clut_4D_sse2+0xffffffffe9a35d52>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3ccea <_sk_clut_4D_sse2+0xffffffffe9a35d48>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -55115,16 +55134,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 8d94 <.literal16+0x804>
+ .byte 127,0 // jg 8d84 <.literal16+0x804>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8d98 <.literal16+0x808>
+ .byte 127,0 // jg 8d88 <.literal16+0x808>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8d9c <.literal16+0x80c>
+ .byte 127,0 // jg 8d8c <.literal16+0x80c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8da0 <.literal16+0x810>
+ .byte 127,0 // jg 8d90 <.literal16+0x810>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -55133,7 +55152,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 8e25 <.literal16+0x895>
+ .byte 119,115 // ja 8e15 <.literal16+0x895>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -55144,7 +55163,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 8d89 <.literal16+0x7f9>
+ .byte 117,191 // jne 8d79 <.literal16+0x7f9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -55156,7 +55175,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3cdca <_sk_clut_4D_sse2+0xffffffffe9a35e22>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3cdba <_sk_clut_4D_sse2+0xffffffffe9a35e18>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -55210,16 +55229,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 8e64 <.literal16+0x8d4>
+ .byte 127,0 // jg 8e54 <.literal16+0x8d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8e68 <.literal16+0x8d8>
+ .byte 127,0 // jg 8e58 <.literal16+0x8d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8e6c <.literal16+0x8dc>
+ .byte 127,0 // jg 8e5c <.literal16+0x8dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8e70 <.literal16+0x8e0>
+ .byte 127,0 // jg 8e60 <.literal16+0x8e0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -55228,7 +55247,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 8ef5 <.literal16+0x965>
+ .byte 119,115 // ja 8ee5 <.literal16+0x965>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -55239,7 +55258,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 8e59 <.literal16+0x8c9>
+ .byte 117,191 // jne 8e49 <.literal16+0x8c9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -55251,7 +55270,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3ce9a <_sk_clut_4D_sse2+0xffffffffe9a35ef2>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3ce8a <_sk_clut_4D_sse2+0xffffffffe9a35ee8>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -55305,16 +55324,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 8f34 <.literal16+0x9a4>
+ .byte 127,0 // jg 8f24 <.literal16+0x9a4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8f38 <.literal16+0x9a8>
+ .byte 127,0 // jg 8f28 <.literal16+0x9a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8f3c <.literal16+0x9ac>
+ .byte 127,0 // jg 8f2c <.literal16+0x9ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 8f40 <.literal16+0x9b0>
+ .byte 127,0 // jg 8f30 <.literal16+0x9b0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -55323,7 +55342,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 8fc5 <.literal16+0xa35>
+ .byte 119,115 // ja 8fb5 <.literal16+0xa35>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -55334,7 +55353,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 8f29 <.literal16+0x999>
+ .byte 117,191 // jne 8f19 <.literal16+0x999>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -55346,7 +55365,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3cf6a <_sk_clut_4D_sse2+0xffffffffe9a35fc2>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3cf5a <_sk_clut_4D_sse2+0xffffffffe9a35fb8>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -55396,13 +55415,13 @@ BALIGN16
.byte 200,66,0,0 // enterq $0x42,$0x0
.byte 200,66,0,0 // enterq $0x42,$0x0
.byte 200,66,0,0 // enterq $0x42,$0x0
- .byte 127,67 // jg 9047 <.literal16+0xab7>
+ .byte 127,67 // jg 9037 <.literal16+0xab7>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 904b <.literal16+0xabb>
+ .byte 127,67 // jg 903b <.literal16+0xabb>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 904f <.literal16+0xabf>
+ .byte 127,67 // jg 903f <.literal16+0xabf>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 9053 <.literal16+0xac3>
+ .byte 127,67 // jg 9043 <.literal16+0xac3>
.byte 0,0 // add %al,(%rax)
.byte 0,195 // add %al,%bl
.byte 0,0 // add %al,(%rax)
@@ -55449,16 +55468,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 90d3 <.literal16+0xb43>
+ .byte 118,63 // jbe 90c3 <.literal16+0xb43>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 90d7 <.literal16+0xb47>
+ .byte 118,63 // jbe 90c7 <.literal16+0xb47>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 90db <.literal16+0xb4b>
+ .byte 118,63 // jbe 90cb <.literal16+0xb4b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 90df <.literal16+0xb4f>
+ .byte 118,63 // jbe 90cf <.literal16+0xb4f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -55487,11 +55506,11 @@ BALIGN16
.byte 128,59,0 // cmpb $0x0,(%rbx)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 914b <.literal16+0xbbb>
+ .byte 127,67 // jg 913b <.literal16+0xbbb>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 914f <.literal16+0xbbf>
+ .byte 127,67 // jg 913f <.literal16+0xbbf>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 9153 <.literal16+0xbc3>
+ .byte 127,67 // jg 9143 <.literal16+0xbc3>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -55553,13 +55572,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 91c9 <.literal16+0xc39>
+ .byte 224,7 // loopne 91b9 <.literal16+0xc39>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 91cd <.literal16+0xc3d>
+ .byte 224,7 // loopne 91bd <.literal16+0xc3d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 91d1 <.literal16+0xc41>
+ .byte 224,7 // loopne 91c1 <.literal16+0xc41>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 91d5 <.literal16+0xc45>
+ .byte 224,7 // loopne 91c5 <.literal16+0xc45>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -55605,13 +55624,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 9239 <.literal16+0xca9>
+ .byte 224,7 // loopne 9229 <.literal16+0xca9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 923d <.literal16+0xcad>
+ .byte 224,7 // loopne 922d <.literal16+0xcad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 9241 <.literal16+0xcb1>
+ .byte 224,7 // loopne 9231 <.literal16+0xcb1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 9245 <.literal16+0xcb5>
+ .byte 224,7 // loopne 9235 <.literal16+0xcb5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -55657,13 +55676,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 92a9 <.literal16+0xd19>
+ .byte 224,7 // loopne 9299 <.literal16+0xd19>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 92ad <.literal16+0xd1d>
+ .byte 224,7 // loopne 929d <.literal16+0xd1d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 92b1 <.literal16+0xd21>
+ .byte 224,7 // loopne 92a1 <.literal16+0xd21>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 92b5 <.literal16+0xd25>
+ .byte 224,7 // loopne 92a5 <.literal16+0xd25>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -55701,13 +55720,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 9346 <.literal16+0xdb6>
+ .byte 124,66 // jl 9336 <.literal16+0xdb6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 934a <.literal16+0xdba>
+ .byte 124,66 // jl 933a <.literal16+0xdba>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 934e <.literal16+0xdbe>
+ .byte 124,66 // jl 933e <.literal16+0xdbe>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 9352 <.literal16+0xdc2>
+ .byte 124,66 // jl 9342 <.literal16+0xdc2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -55841,13 +55860,13 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 94d5 <.literal16+0xf45>
+ .byte 112,65 // jo 94c5 <.literal16+0xf45>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 94d9 <.literal16+0xf49>
+ .byte 112,65 // jo 94c9 <.literal16+0xf49>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 94dd <.literal16+0xf4d>
+ .byte 112,65 // jo 94cd <.literal16+0xf4d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 94e1 <.literal16+0xf51>
+ .byte 112,65 // jo 94d1 <.literal16+0xf51>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -55878,11 +55897,11 @@ BALIGN16
.byte 128,59,129 // cmpb $0x81,(%rbx)
.byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 954b <.literal16+0xfbb>
+ .byte 127,67 // jg 953b <.literal16+0xfbb>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 954f <.literal16+0xfbf>
+ .byte 127,67 // jg 953f <.literal16+0xfbf>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 9553 <.literal16+0xfc3>
+ .byte 127,67 // jg 9543 <.literal16+0xfc3>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -55913,11 +55932,11 @@ BALIGN16
.byte 128,59,129 // cmpb $0x81,(%rbx)
.byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 95bb <.literal16+0x102b>
+ .byte 127,67 // jg 95ab <.literal16+0x102b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 95bf <.literal16+0x102f>
+ .byte 127,67 // jg 95af <.literal16+0x102f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 95c3 <.literal16+0x1033>
+ .byte 127,67 // jg 95b3 <.literal16+0x1033>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
@@ -56013,13 +56032,13 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 255 // (bad)
- .byte 127,71 // jg 96eb <.literal16+0x115b>
+ .byte 127,71 // jg 96db <.literal16+0x115b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 96ef <.literal16+0x115f>
+ .byte 127,71 // jg 96df <.literal16+0x115f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 96f3 <.literal16+0x1163>
+ .byte 127,71 // jg 96e3 <.literal16+0x1163>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 96f7 <.literal16+0x1167>
+ .byte 127,71 // jg 96e7 <.literal16+0x1167>
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
@@ -56096,10 +56115,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc0a88a <_sk_clut_4D_sse2+0x2dc038e2>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc0a87a <_sk_clut_4D_sse2+0x2dc038d8>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 97bc <.literal16+0x122c>
+ .byte 120,57 // js 97ac <.literal16+0x122c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -56286,11 +56305,11 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 128,63,114 // cmpb $0x72,(%rdi)
.byte 28,199 // sbb $0xc7,%al
- .byte 62,114,28 // jb,pt 99a2 <.literal16+0x1412>
+ .byte 62,114,28 // jb,pt 9992 <.literal16+0x1412>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 99a6 <.literal16+0x1416>
+ .byte 62,114,28 // jb,pt 9996 <.literal16+0x1416>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 99aa <.literal16+0x141a>
+ .byte 62,114,28 // jb,pt 999a <.literal16+0x141a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%rdi)
.byte 170 // stos %al,%es:(%rdi)
@@ -56334,7 +56353,7 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642835 <_sk_clut_4D_sse2+0x3d63b88d>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642825 <_sk_clut_4D_sse2+0x3d63b883>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -56360,7 +56379,7 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642875 <_sk_clut_4D_sse2+0x3d63b8cd>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642865 <_sk_clut_4D_sse2+0x3d63b8c3>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 192,63,0 // sarb $0x0,(%rdi)
.byte 0,192 // add %al,%al
@@ -56369,13 +56388,13 @@ BALIGN16
.byte 192,63,0 // sarb $0x0,(%rdi)
.byte 0,192 // add %al,%al
.byte 63 // (bad)
- .byte 114,28 // jb 9a6e <.literal16+0x14de>
+ .byte 114,28 // jb 9a5e <.literal16+0x14de>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9a72 <.literal16+0x14e2>
+ .byte 62,114,28 // jb,pt 9a62 <.literal16+0x14e2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9a76 <.literal16+0x14e6>
+ .byte 62,114,28 // jb,pt 9a66 <.literal16+0x14e6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9a7a <.literal16+0x14ea>
+ .byte 62,114,28 // jb,pt 9a6a <.literal16+0x14ea>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%rdi)
.byte 170 // stos %al,%es:(%rdi)
@@ -56396,11 +56415,11 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 128,63,114 // cmpb $0x72,(%rdi)
.byte 28,199 // sbb $0xc7,%al
- .byte 62,114,28 // jb,pt 9ab2 <.literal16+0x1522>
+ .byte 62,114,28 // jb,pt 9aa2 <.literal16+0x1522>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9ab6 <.literal16+0x1526>
+ .byte 62,114,28 // jb,pt 9aa6 <.literal16+0x1526>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9aba <.literal16+0x152a>
+ .byte 62,114,28 // jb,pt 9aaa <.literal16+0x152a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%rdi)
.byte 170 // stos %al,%es:(%rdi)
@@ -56444,7 +56463,7 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642945 <_sk_clut_4D_sse2+0x3d63b99d>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642935 <_sk_clut_4D_sse2+0x3d63b993>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -56470,7 +56489,7 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642985 <_sk_clut_4D_sse2+0x3d63b9dd>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642975 <_sk_clut_4D_sse2+0x3d63b9d3>
.byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
.byte 192,63,0 // sarb $0x0,(%rdi)
.byte 0,192 // add %al,%al
@@ -56479,13 +56498,13 @@ BALIGN16
.byte 192,63,0 // sarb $0x0,(%rdi)
.byte 0,192 // add %al,%al
.byte 63 // (bad)
- .byte 114,28 // jb 9b7e <.literal16+0x15ee>
+ .byte 114,28 // jb 9b6e <.literal16+0x15ee>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9b82 <.literal16+0x15f2>
+ .byte 62,114,28 // jb,pt 9b72 <.literal16+0x15f2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9b86 <.literal16+0x15f6>
+ .byte 62,114,28 // jb,pt 9b76 <.literal16+0x15f6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 9b8a <.literal16+0x15fa>
+ .byte 62,114,28 // jb,pt 9b7a <.literal16+0x15fa>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%rdi)
.byte 170 // stos %al,%es:(%rdi)
@@ -56495,14 +56514,14 @@ BALIGN16
.byte 170 // stos %al,%es:(%rdi)
.byte 170 // stos %al,%es:(%rdi)
.byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
- .byte 114,249 // jb 9b7b <.literal16+0x15eb>
- .byte 127,63 // jg 9bc3 <.literal16+0x1633>
- .byte 114,249 // jb 9b7f <.literal16+0x15ef>
- .byte 127,63 // jg 9bc7 <.literal16+0x1637>
- .byte 114,249 // jb 9b83 <.literal16+0x15f3>
- .byte 127,63 // jg 9bcb <.literal16+0x163b>
- .byte 114,249 // jb 9b87 <.literal16+0x15f7>
- .byte 127,63 // jg 9bcf <.literal16+0x163f>
+ .byte 114,249 // jb 9b6b <.literal16+0x15eb>
+ .byte 127,63 // jg 9bb3 <.literal16+0x1633>
+ .byte 114,249 // jb 9b6f <.literal16+0x15ef>
+ .byte 127,63 // jg 9bb7 <.literal16+0x1637>
+ .byte 114,249 // jb 9b73 <.literal16+0x15f3>
+ .byte 127,63 // jg 9bbb <.literal16+0x163b>
+ .byte 114,249 // jb 9b77 <.literal16+0x15f7>
+ .byte 127,63 // jg 9bbf <.literal16+0x163f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -56527,14 +56546,14 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 2,0 // add (%rax),%al
.byte 0,0 // add %al,(%rax)
- .byte 114,249 // jb 9bbb <.literal16+0x162b>
- .byte 127,63 // jg 9c03 <.literal16+0x1673>
- .byte 114,249 // jb 9bbf <.literal16+0x162f>
- .byte 127,63 // jg 9c07 <.literal16+0x1677>
- .byte 114,249 // jb 9bc3 <.literal16+0x1633>
- .byte 127,63 // jg 9c0b <.literal16+0x167b>
- .byte 114,249 // jb 9bc7 <.literal16+0x1637>
- .byte 127,63 // jg 9c0f <.literal16+0x167f>
+ .byte 114,249 // jb 9bab <.literal16+0x162b>
+ .byte 127,63 // jg 9bf3 <.literal16+0x1673>
+ .byte 114,249 // jb 9baf <.literal16+0x162f>
+ .byte 127,63 // jg 9bf7 <.literal16+0x1677>
+ .byte 114,249 // jb 9bb3 <.literal16+0x1633>
+ .byte 127,63 // jg 9bfb <.literal16+0x167b>
+ .byte 114,249 // jb 9bb7 <.literal16+0x1637>
+ .byte 127,63 // jg 9bff <.literal16+0x167f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -67195,7 +67214,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,2 // movd (%edx),%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,144,6,145,0,0 // movaps 0x9106(%eax),%xmm2
+ .byte 15,40,144,230,144,0,0 // movaps 0x90e6(%eax),%xmm2
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -67210,7 +67229,7 @@ _sk_seed_shader_sse2:
.byte 15,41,82,32 // movaps %xmm2,0x20(%edx)
.byte 15,41,82,16 // movaps %xmm2,0x10(%edx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,22,145,0,0 // movaps 0x9116(%eax),%xmm2
+ .byte 15,40,144,246,144,0,0 // movaps 0x90f6(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 82 // push %edx
@@ -67243,16 +67262,16 @@ _sk_dither_sse2:
.byte 102,15,110,96,4 // movd 0x4(%eax),%xmm4
.byte 102,15,112,252,0 // pshufd $0x0,%xmm4,%xmm7
.byte 102,15,239,253 // pxor %xmm5,%xmm7
- .byte 102,15,111,177,169,144,0,0 // movdqa 0x90a9(%ecx),%xmm6
+ .byte 102,15,111,177,137,144,0,0 // movdqa 0x9089(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,111,129,201,144,0,0 // movdqa 0x90c9(%ecx),%xmm0
+ .byte 102,15,111,129,169,144,0,0 // movdqa 0x90a9(%ecx),%xmm0
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,219,185,185,144,0,0 // pand 0x90b9(%ecx),%xmm7
- .byte 102,15,219,169,185,144,0,0 // pand 0x90b9(%ecx),%xmm5
+ .byte 102,15,219,185,153,144,0,0 // pand 0x9099(%ecx),%xmm7
+ .byte 102,15,219,169,153,144,0,0 // pand 0x9099(%ecx),%xmm5
.byte 102,15,114,246,4 // pslld $0x4,%xmm6
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
@@ -67267,8 +67286,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,217,144,0,0 // mulps 0x90d9(%ecx),%xmm0
- .byte 15,88,129,233,144,0,0 // addps 0x90e9(%ecx),%xmm0
+ .byte 15,89,129,185,144,0,0 // mulps 0x90b9(%ecx),%xmm0
+ .byte 15,88,129,201,144,0,0 // addps 0x90c9(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -67336,7 +67355,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,185,143,0,0 // movaps 0x8fb9(%eax),%xmm3
+ .byte 15,40,152,153,143,0,0 // movaps 0x8f99(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -67359,7 +67378,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,153,143,0,0 // movaps 0x8f99(%eax),%xmm0
+ .byte 15,40,128,121,143,0,0 // movaps 0x8f79(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -67449,7 +67468,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,250,142,0,0 // movaps 0x8efa(%edx),%xmm5
+ .byte 15,40,170,218,142,0,0 // movaps 0x8eda(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -67488,7 +67507,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,171,142,0,0 // movaps 0x8eab(%edx),%xmm4
+ .byte 15,40,162,139,142,0,0 // movaps 0x8e8b(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -67572,7 +67591,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,250,141,0,0 // movaps 0x8dfa(%eax),%xmm4
+ .byte 15,40,160,218,141,0,0 // movaps 0x8dda(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -67598,7 +67617,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,210,141,0,0 // movaps 0x8dd2(%eax),%xmm4
+ .byte 15,40,160,178,141,0,0 // movaps 0x8db2(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -67628,7 +67647,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,155,141,0,0 // movaps 0x8d9b(%eax),%xmm4
+ .byte 15,40,160,123,141,0,0 // movaps 0x8d7b(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67662,7 +67681,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,91,141,0,0 // movaps 0x8d5b(%eax),%xmm4
+ .byte 15,40,160,59,141,0,0 // movaps 0x8d3b(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -67718,7 +67737,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,236,140,0,0 // movaps 0x8cec(%ecx),%xmm0
+ .byte 15,40,129,204,140,0,0 // movaps 0x8ccc(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -67843,7 +67862,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,193,139,0,0 // movaps 0x8bc1(%edx),%xmm3
+ .byte 15,40,154,161,139,0,0 // movaps 0x8ba1(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -67905,7 +67924,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,105,139,0,0 // movaps 0x8b69(%edx),%xmm1
+ .byte 15,40,138,73,139,0,0 // movaps 0x8b49(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -67954,7 +67973,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,249,138,0,0 // movaps 0x8af9(%edx),%xmm1
+ .byte 15,40,138,217,138,0,0 // movaps 0x8ad9(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -68007,7 +68026,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,134,138,0,0 // movaps 0x8a86(%edx),%xmm2
+ .byte 15,40,146,102,138,0,0 // movaps 0x8a66(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -68051,7 +68070,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,16,138,0,0 // movaps 0x8a10(%edx),%xmm1
+ .byte 15,40,138,240,137,0,0 // movaps 0x89f0(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -68072,131 +68091,126 @@ FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 131,236,120 // sub $0x78,%esp
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
- .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
- .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 953 <_sk_colorburn_sse2+0x1d>
+ .byte 131,236,88 // sub $0x58,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 232,0,0,0,0 // call 94f <_sk_colorburn_sse2+0x19>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,64,64 // movaps 0x40(%eax),%xmm0
- .byte 15,40,96,16 // movaps 0x10(%eax),%xmm4
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,94,211 // divps %xmm3,%xmm2
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,93,242 // minps %xmm2,%xmm6
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,40,177,157,137,0,0 // movaps 0x899d(%ecx),%xmm6
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
+ .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
+ .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp)
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,83,244 // rcpps %xmm4,%xmm6
+ .byte 15,89,240 // mulps %xmm0,%xmm6
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,93,198 // minps %xmm6,%xmm0
+ .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 15,92,232 // subps %xmm0,%xmm5
+ .byte 15,40,177,129,137,0,0 // movaps 0x8981(%ecx),%xmm6
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 15,88,223 // addps %xmm7,%xmm3
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,89,232 // mulps %xmm0,%xmm5
.byte 15,88,239 // addps %xmm7,%xmm5
+ .byte 15,92,240 // subps %xmm0,%xmm6
+ .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,40,117,232 // movaps -0x18(%ebp),%xmm6
+ .byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
- .byte 15,84,217 // andps %xmm1,%xmm3
- .byte 15,85,205 // andnps %xmm5,%xmm1
- .byte 15,86,203 // orps %xmm3,%xmm1
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,41,117,232 // movaps %xmm6,-0x18(%ebp)
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,194,231,0 // cmpeqps %xmm7,%xmm4
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,84,196 // andps %xmm4,%xmm0
+ .byte 15,85,229 // andnps %xmm5,%xmm4
+ .byte 15,86,224 // orps %xmm0,%xmm4
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,194,193,0 // cmpeqps %xmm1,%xmm0
+ .byte 15,84,216 // andps %xmm0,%xmm3
+ .byte 15,85,196 // andnps %xmm4,%xmm0
+ .byte 15,86,195 // orps %xmm3,%xmm0
+ .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
+ .byte 15,40,96,32 // movaps 0x20(%eax),%xmm4
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 15,40,109,216 // movaps -0x28(%ebp),%xmm5
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,83,218 // rcpps %xmm2,%xmm3
.byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,194,211,0 // cmpeqps %xmm3,%xmm2
- .byte 15,84,226 // andps %xmm2,%xmm4
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 15,86,212 // orps %xmm4,%xmm2
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,93,195 // minps %xmm3,%xmm0
+ .byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,92,216 // subps %xmm0,%xmm3
+ .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
+ .byte 15,89,242 // mulps %xmm2,%xmm6
+ .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,194,215,0 // cmpeqps %xmm7,%xmm2
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,94,217 // divps %xmm1,%xmm3
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,93,227 // minps %xmm3,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,88,222 // addps %xmm6,%xmm3
+ .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,84,194 // andps %xmm2,%xmm0
+ .byte 15,85,211 // andnps %xmm3,%xmm2
+ .byte 15,86,208 // orps %xmm0,%xmm2
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,194,231,0 // cmpeqps %xmm7,%xmm4
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,86,225 // orps %xmm1,%xmm4
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,194,233,0 // cmpeqps %xmm1,%xmm5
+ .byte 15,84,245 // andps %xmm5,%xmm6
+ .byte 15,85,234 // andnps %xmm2,%xmm5
+ .byte 15,86,238 // orps %xmm6,%xmm5
+ .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
+ .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
+ .byte 15,89,240 // mulps %xmm0,%xmm6
+ .byte 15,41,117,200 // movaps %xmm6,-0x38(%ebp)
+ .byte 15,194,248,0 // cmpeqps %xmm0,%xmm7
+ .byte 15,40,216 // movaps %xmm0,%xmm3
+ .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
+ .byte 15,83,219 // rcpps %xmm3,%xmm3
.byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,194,250,0 // cmpeqps %xmm2,%xmm7
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,85,252 // andnps %xmm4,%xmm7
- .byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,40,96,48 // movaps 0x30(%eax),%xmm4
- .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,93,227 // minps %xmm3,%xmm4
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,89,242 // mulps %xmm2,%xmm6
+ .byte 15,194,209,0 // cmpeqps %xmm1,%xmm2
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
- .byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,93,217 // minps %xmm1,%xmm3
.byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,194,226,0 // cmpeqps %xmm2,%xmm4
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,85,216 // addps -0x28(%ebp),%xmm2
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,194,197,0 // cmpeqps %xmm5,%xmm0
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,85,194 // andnps %xmm2,%xmm0
- .byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,85,224 // andnps %xmm0,%xmm4
- .byte 15,86,225 // orps %xmm1,%xmm4
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,88,109,232 // addps -0x18(%ebp),%xmm5
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,84,247 // andps %xmm7,%xmm6
+ .byte 15,85,249 // andnps %xmm1,%xmm7
+ .byte 15,86,254 // orps %xmm6,%xmm7
+ .byte 15,84,218 // andps %xmm2,%xmm3
+ .byte 15,85,215 // andnps %xmm7,%xmm2
+ .byte 15,86,211 // orps %xmm3,%xmm2
+ .byte 15,40,216 // movaps %xmm0,%xmm3
+ .byte 15,88,93,184 // addps -0x48(%ebp),%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,40,205 // movaps %xmm5,%xmm1
.byte 82 // push %edx
.byte 80 // push %eax
.byte 255,17 // call *(%ecx)
- .byte 129,196,136,0,0,0 // add $0x88,%esp
+ .byte 131,196,104 // add $0x68,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -68206,116 +68220,114 @@ FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 131,236,104 // sub $0x68,%esp
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 232,0,0,0,0 // call ae9 <_sk_colordodge_sse2+0x16>
+ .byte 131,236,88 // sub $0x58,%esp
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
+ .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
+ .byte 232,0,0,0,0 // call ad8 <_sk_colordodge_sse2+0x16>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
- .byte 15,40,177,23,136,0,0 // movaps 0x8817(%ecx),%xmm6
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,94,233 // divps %xmm1,%xmm5
- .byte 15,40,96,64 // movaps 0x40(%eax),%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,93,205 // minps %xmm5,%xmm1
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
+ .byte 15,40,145,8,136,0,0 // movaps 0x8808(%ecx),%xmm2
+ .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 15,92,214 // subps %xmm6,%xmm2
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
+ .byte 15,89,249 // mulps %xmm1,%xmm7
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,92,216 // subps %xmm0,%xmm3
+ .byte 15,83,219 // rcpps %xmm3,%xmm3
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,40,104,64 // movaps 0x40(%eax),%xmm5
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,93,203 // minps %xmm3,%xmm1
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
+ .byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,194,230,0 // cmpeqps %xmm6,%xmm4
+ .byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,194,239,0 // cmpeqps %xmm7,%xmm5
- .byte 15,84,197 // andps %xmm5,%xmm0
- .byte 15,85,233 // andnps %xmm1,%xmm5
- .byte 15,86,232 // orps %xmm0,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
+ .byte 15,84,196 // andps %xmm4,%xmm0
+ .byte 15,85,225 // andnps %xmm1,%xmm4
+ .byte 15,86,224 // orps %xmm0,%xmm4
+ .byte 15,88,231 // addps %xmm7,%xmm4
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,194,216,0 // cmpeqps %xmm0,%xmm3
- .byte 15,84,211 // andps %xmm3,%xmm2
- .byte 15,85,221 // andnps %xmm5,%xmm3
- .byte 15,86,218 // orps %xmm2,%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
+ .byte 15,194,248,0 // cmpeqps %xmm0,%xmm7
+ .byte 15,84,223 // andps %xmm7,%xmm3
+ .byte 15,85,252 // andnps %xmm4,%xmm7
+ .byte 15,86,251 // orps %xmm3,%xmm7
+ .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp)
.byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,94,195 // divps %xmm3,%xmm0
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,40,216 // movaps %xmm0,%xmm3
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 15,92,226 // subps %xmm2,%xmm4
+ .byte 15,83,228 // rcpps %xmm4,%xmm4
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,93,204 // minps %xmm4,%xmm1
+ .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
+ .byte 15,89,226 // mulps %xmm2,%xmm4
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
+ .byte 15,194,198,0 // cmpeqps %xmm6,%xmm0
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,88,204 // addps %xmm4,%xmm1
.byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,85,195 // andnps %xmm3,%xmm0
+ .byte 15,85,193 // andnps %xmm1,%xmm0
.byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,194,234,0 // cmpeqps %xmm2,%xmm5
- .byte 15,84,245 // andps %xmm5,%xmm6
- .byte 15,85,232 // andnps %xmm0,%xmm5
- .byte 15,86,238 // orps %xmm6,%xmm5
- .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1
- .byte 15,194,209,0 // cmpeqps %xmm1,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,94,206 // divps %xmm6,%xmm1
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,93,225 // minps %xmm1,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 15,85,204 // andnps %xmm4,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 15,88,77,168 // addps -0x58(%ebp),%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 15,88,199 // addps %xmm7,%xmm0
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,194,217,0 // cmpeqps %xmm1,%xmm3
+ .byte 15,84,227 // andps %xmm3,%xmm4
+ .byte 15,85,216 // andnps %xmm0,%xmm3
+ .byte 15,86,220 // orps %xmm4,%xmm3
+ .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
+ .byte 15,194,200,0 // cmpeqps %xmm0,%xmm1
+ .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
+ .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,89,208 // mulps %xmm0,%xmm2
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7
+ .byte 15,92,231 // subps %xmm7,%xmm4
+ .byte 15,83,228 // rcpps %xmm4,%xmm4
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,93,236 // minps %xmm4,%xmm5
+ .byte 15,40,231 // movaps %xmm7,%xmm4
+ .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
+ .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,194,198,0 // cmpeqps %xmm6,%xmm0
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 15,88,239 // addps %xmm7,%xmm5
+ .byte 15,84,224 // andps %xmm0,%xmm4
+ .byte 15,85,197 // andnps %xmm5,%xmm0
+ .byte 15,86,196 // orps %xmm4,%xmm0
+ .byte 15,88,194 // addps %xmm2,%xmm0
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 15,84,250 // andps %xmm2,%xmm7
+ .byte 15,85,208 // andnps %xmm0,%xmm2
+ .byte 15,86,215 // orps %xmm7,%xmm2
+ .byte 15,88,241 // addps %xmm1,%xmm6
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,223 // movaps %xmm7,%xmm3
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,40,222 // movaps %xmm6,%xmm3
.byte 82 // push %edx
.byte 80 // push %eax
.byte 255,17 // call *(%ecx)
- .byte 131,196,120 // add $0x78,%esp
+ .byte 131,196,104 // add $0x68,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -68329,11 +68341,11 @@ _sk_hardlight_sse2:
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 232,0,0,0,0 // call c55 <_sk_hardlight_sse2+0x16>
+ .byte 232,0,0,0,0 // call c39 <_sk_hardlight_sse2+0x16>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,187,134,0,0 // movaps 0x86bb(%ecx),%xmm2
+ .byte 15,40,145,183,134,0,0 // movaps 0x86b7(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -68439,11 +68451,11 @@ _sk_overlay_sse2:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call da0 <_sk_overlay_sse2+0x1a>
+ .byte 232,0,0,0,0 // call d84 <_sk_overlay_sse2+0x1a>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,128,133,0,0 // movaps 0x8580(%ecx),%xmm4
+ .byte 15,40,161,124,133,0,0 // movaps 0x857c(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -68568,20 +68580,20 @@ _sk_softlight_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,241 // addps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call f30 <_sk_softlight_sse2+0x52>
+ .byte 232,0,0,0,0 // call f14 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,16,132,0,0 // movaps 0x8410(%ecx),%xmm1
+ .byte 15,40,137,12,132,0,0 // movaps 0x840c(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,0,132,0,0 // movaps 0x8400(%ecx),%xmm7
+ .byte 15,40,185,252,131,0,0 // movaps 0x83fc(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,32,132,0,0 // movaps 0x8420(%ecx),%xmm4
+ .byte 15,40,161,28,132,0,0 // movaps 0x841c(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -68777,7 +68789,7 @@ _sk_hue_sse2:
.byte 15,93,200 // minps %xmm0,%xmm1
.byte 15,92,225 // subps %xmm1,%xmm4
.byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 11f1 <_sk_hue_sse2+0x4f>
+ .byte 232,0,0,0,0 // call 11d5 <_sk_hue_sse2+0x4f>
.byte 89 // pop %ecx
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -68787,7 +68799,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,159,129,0,0 // movaps 0x819f(%ecx),%xmm5
+ .byte 15,40,169,155,129,0,0 // movaps 0x819b(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -68820,17 +68832,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,111,129,0,0 // movaps 0x816f(%ecx),%xmm3
+ .byte 15,40,153,107,129,0,0 // movaps 0x816b(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,127,129,0,0 // movaps 0x817f(%ecx),%xmm3
+ .byte 15,40,153,123,129,0,0 // movaps 0x817b(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,159,129,0,0 // movaps 0x819f(%ecx),%xmm1
+ .byte 15,40,137,155,129,0,0 // movaps 0x819b(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -68840,7 +68852,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,143,129,0,0 // movaps 0x818f(%ecx),%xmm5
+ .byte 15,40,169,139,129,0,0 // movaps 0x818b(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -69031,19 +69043,19 @@ _sk_saturation_sse2:
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 232,0,0,0,0 // call 1545 <_sk_saturation_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 1529 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,91,126,0,0 // movaps 0x7e5b(%ecx),%xmm3
+ .byte 15,40,153,87,126,0,0 // movaps 0x7e57(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,107,126,0,0 // movaps 0x7e6b(%ecx),%xmm3
+ .byte 15,40,153,103,126,0,0 // movaps 0x7e67(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,139,126,0,0 // movaps 0x7e8b(%ecx),%xmm0
+ .byte 15,40,129,135,126,0,0 // movaps 0x7e87(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -69055,7 +69067,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,123,126,0,0 // movaps 0x7e7b(%ecx),%xmm0
+ .byte 15,40,129,119,126,0,0 // movaps 0x7e77(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -69209,21 +69221,21 @@ _sk_color_sse2:
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
- .byte 232,0,0,0,0 // call 17a0 <_sk_color_sse2+0x2a>
+ .byte 232,0,0,0,0 // call 1784 <_sk_color_sse2+0x2a>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,64,124,0,0 // movaps 0x7c40(%ecx),%xmm6
+ .byte 15,40,177,60,124,0,0 // movaps 0x7c3c(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,80,124,0,0 // movaps 0x7c50(%ecx),%xmm3
+ .byte 15,40,153,76,124,0,0 // movaps 0x7c4c(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,112,124,0,0 // movaps 0x7c70(%ecx),%xmm0
+ .byte 15,40,129,108,124,0,0 // movaps 0x7c6c(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -69233,7 +69245,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,96,124,0,0 // movaps 0x7c60(%ecx),%xmm1
+ .byte 15,40,137,92,124,0,0 // movaps 0x7c5c(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -69389,21 +69401,21 @@ _sk_luminosity_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 129,236,184,0,0,0 // sub $0xb8,%esp
.byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 232,0,0,0,0 // call 1a03 <_sk_luminosity_sse2+0x11>
+ .byte 232,0,0,0,0 // call 19e7 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,29,122,0,0 // movaps 0x7a1d(%ecx),%xmm4
+ .byte 15,40,161,25,122,0,0 // movaps 0x7a19(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,45,122,0,0 // movaps 0x7a2d(%ecx),%xmm4
+ .byte 15,40,161,41,122,0,0 // movaps 0x7a29(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,77,122,0,0 // movaps 0x7a4d(%ecx),%xmm4
+ .byte 15,40,161,73,122,0,0 // movaps 0x7a49(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -69413,7 +69425,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,61,122,0,0 // movaps 0x7a3d(%ecx),%xmm1
+ .byte 15,40,137,57,122,0,0 // movaps 0x7a39(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -69575,7 +69587,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 131,236,44 // sub $0x2c,%esp
.byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 1c6e <_sk_srcover_rgba_8888_sse2+0x17>
+ .byte 232,0,0,0,0 // call 1c52 <_sk_srcover_rgba_8888_sse2+0x17>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -69587,9 +69599,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,133,224,0,0,0 // jne 1d70 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 15,133,224,0,0,0 // jne 1d54 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,242,119,0,0 // movdqa 0x77f2(%edi),%xmm4
+ .byte 102,15,111,167,238,119,0,0 // movdqa 0x77ee(%edi),%xmm4
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 102,15,111,242 // movdqa %xmm2,%xmm6
@@ -69600,9 +69612,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,2,120,0,0 // movaps 0x7802(%edi),%xmm5
+ .byte 15,40,175,254,119,0,0 // movaps 0x77fe(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,18,120,0,0 // movaps 0x7812(%edi),%xmm1
+ .byte 15,40,143,14,120,0,0 // movaps 0x780e(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
@@ -69635,7 +69647,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 133,219 // test %ebx,%ebx
- .byte 117,95 // jne 1dab <_sk_srcover_rgba_8888_sse2+0x154>
+ .byte 117,95 // jne 1d8f <_sk_srcover_rgba_8888_sse2+0x154>
.byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -69656,33 +69668,33 @@ _sk_srcover_rgba_8888_sse2:
.byte 136,69,243 // mov %al,-0xd(%ebp)
.byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
.byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,80 // je 1dcf <_sk_srcover_rgba_8888_sse2+0x178>
+ .byte 116,80 // je 1db3 <_sk_srcover_rgba_8888_sse2+0x178>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 1da1 <_sk_srcover_rgba_8888_sse2+0x14a>
+ .byte 116,21 // je 1d85 <_sk_srcover_rgba_8888_sse2+0x14a>
.byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,255,254,255,255 // jne 1c95 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 15,133,255,254,255,255 // jne 1c79 <_sk_srcover_rgba_8888_sse2+0x3e>
.byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2
.byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
.byte 102,15,18,20,178 // movlpd (%edx,%esi,4),%xmm2
- .byte 233,234,254,255,255 // jmp 1c95 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 233,234,254,255,255 // jmp 1c79 <_sk_srcover_rgba_8888_sse2+0x3e>
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,41 // je 1ddc <_sk_srcover_rgba_8888_sse2+0x185>
+ .byte 116,41 // je 1dc0 <_sk_srcover_rgba_8888_sse2+0x185>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 1dc8 <_sk_srcover_rgba_8888_sse2+0x171>
+ .byte 116,16 // je 1dac <_sk_srcover_rgba_8888_sse2+0x171>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,148 // jne 1d51 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 117,148 // jne 1d35 <_sk_srcover_rgba_8888_sse2+0xfa>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4)
.byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4)
- .byte 235,130 // jmp 1d51 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 235,130 // jmp 1d35 <_sk_srcover_rgba_8888_sse2+0xfa>
.byte 102,15,110,20,178 // movd (%edx,%esi,4),%xmm2
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,185,254,255,255 // jmp 1c95 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 233,185,254,255,255 // jmp 1c79 <_sk_srcover_rgba_8888_sse2+0x3e>
.byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4)
- .byte 233,107,255,255,255 // jmp 1d51 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 233,107,255,255,255 // jmp 1d35 <_sk_srcover_rgba_8888_sse2+0xfa>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -69713,10 +69725,10 @@ _sk_clamp_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1e1a <_sk_clamp_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1dfe <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,118,118,0,0 // movaps 0x7676(%eax),%xmm4
+ .byte 15,40,160,114,118,0,0 // movaps 0x7672(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -69737,10 +69749,10 @@ _sk_clamp_a_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1e4d <_sk_clamp_a_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1e31 <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,83,118,0,0 // minps 0x7653(%eax),%xmm3
+ .byte 15,93,152,79,118,0,0 // minps 0x764f(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -69760,12 +69772,12 @@ _sk_clamp_a_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1e7d <_sk_clamp_a_dst_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1e61 <_sk_clamp_a_dst_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,51,118,0,0 // minps 0x7633(%eax),%xmm4
+ .byte 15,93,160,47,118,0,0 // minps 0x762f(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,93,236 // minps %xmm4,%xmm5
@@ -69836,10 +69848,10 @@ _sk_invert_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1f28 <_sk_invert_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1f0c <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,152,117,0,0 // movaps 0x7598(%eax),%xmm4
+ .byte 15,40,160,148,117,0,0 // movaps 0x7594(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -69958,11 +69970,11 @@ _sk_unpremul_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2026 <_sk_unpremul_sse2+0xb>
+ .byte 232,0,0,0,0 // call 200a <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,40,168,170,116,0,0 // movaps 0x74aa(%eax),%xmm5
+ .byte 15,40,168,166,116,0,0 // movaps 0x74a6(%eax),%xmm5
.byte 15,94,235 // divps %xmm3,%xmm5
.byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
.byte 15,84,229 // andps %xmm5,%xmm4
@@ -69989,23 +70001,23 @@ _sk_from_srgb_sse2:
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2070 <_sk_from_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 2054 <_sk_from_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,128,116,0,0 // movaps 0x7480(%eax),%xmm4
+ .byte 15,40,160,124,116,0,0 // movaps 0x747c(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,144,116,0,0 // movaps 0x7490(%eax),%xmm6
+ .byte 15,40,176,140,116,0,0 // movaps 0x748c(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,112,116,0,0 // movaps 0x7470(%eax),%xmm6
+ .byte 15,40,176,108,116,0,0 // movaps 0x746c(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,160,116,0,0 // movaps 0x74a0(%eax),%xmm7
+ .byte 15,40,184,156,116,0,0 // movaps 0x749c(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,176,116,0,0 // movaps 0x74b0(%eax),%xmm7
+ .byte 15,40,184,172,116,0,0 // movaps 0x74ac(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -70059,24 +70071,24 @@ _sk_from_srgb_dst_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 214b <_sk_from_srgb_dst_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 212f <_sk_from_srgb_dst_sse2+0x1b>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,245,115,0,0 // movaps 0x73f5(%ecx),%xmm4
+ .byte 15,40,161,241,115,0,0 // movaps 0x73f1(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,5,116,0,0 // movaps 0x7405(%ecx),%xmm6
+ .byte 15,40,177,1,116,0,0 // movaps 0x7401(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,229,115,0,0 // movaps 0x73e5(%ecx),%xmm5
+ .byte 15,40,169,225,115,0,0 // movaps 0x73e1(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,21,116,0,0 // movaps 0x7415(%ecx),%xmm7
+ .byte 15,40,185,17,116,0,0 // movaps 0x7411(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,37,116,0,0 // movaps 0x7425(%ecx),%xmm3
+ .byte 15,40,153,33,116,0,0 // movaps 0x7421(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -70135,28 +70147,28 @@ _sk_to_srgb_sse2:
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2236 <_sk_to_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 221a <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,90,115,0,0 // movaps 0x735a(%eax),%xmm4
+ .byte 15,40,160,86,115,0,0 // movaps 0x7356(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,106,115,0,0 // movaps 0x736a(%eax),%xmm0
+ .byte 15,40,128,102,115,0,0 // movaps 0x7366(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,122,115,0,0 // movaps 0x737a(%eax),%xmm0
+ .byte 15,40,128,118,115,0,0 // movaps 0x7376(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,138,115,0,0 // movaps 0x738a(%eax),%xmm0
+ .byte 15,40,128,134,115,0,0 // movaps 0x7386(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,74,115,0,0 // movaps 0x734a(%eax),%xmm5
+ .byte 15,40,168,70,115,0,0 // movaps 0x7346(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,154,115,0,0 // movaps 0x739a(%eax),%xmm3
+ .byte 15,40,152,150,115,0,0 // movaps 0x7396(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -70213,7 +70225,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,249 // movaps %xmm1,%xmm7
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 232d <_sk_rgb_to_hsl_sse2+0x15>
+ .byte 232,0,0,0,0 // call 2311 <_sk_rgb_to_hsl_sse2+0x15>
.byte 88 // pop %eax
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,95,207 // maxps %xmm7,%xmm1
@@ -70225,14 +70237,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,152,179,114,0,0 // movaps 0x72b3(%eax),%xmm3
+ .byte 15,40,152,175,114,0,0 // movaps 0x72af(%eax),%xmm3
.byte 15,94,216 // divps %xmm0,%xmm3
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,195,114,0,0 // andps 0x72c3(%eax),%xmm5
+ .byte 15,84,168,191,114,0,0 // andps 0x72bf(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -70242,9 +70254,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,211 // mulps %xmm3,%xmm2
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,152,211,114,0,0 // movaps 0x72d3(%eax),%xmm3
+ .byte 15,40,152,207,114,0,0 // movaps 0x72cf(%eax),%xmm3
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,88,160,227,114,0,0 // addps 0x72e3(%eax),%xmm4
+ .byte 15,88,160,223,114,0,0 // addps 0x72df(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -70256,7 +70268,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,217 // subps %xmm1,%xmm3
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,40,168,3,115,0,0 // movaps 0x7303(%eax),%xmm5
+ .byte 15,40,168,255,114,0,0 // movaps 0x72ff(%eax),%xmm5
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -70266,7 +70278,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,235 // orps %xmm3,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,243,114,0,0 // mulps 0x72f3(%eax),%xmm0
+ .byte 15,89,128,239,114,0,0 // mulps 0x72ef(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -70289,9 +70301,9 @@ _sk_hsl_to_rgb_sse2:
.byte 129,236,200,0,0,0 // sub $0xc8,%esp
.byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2422 <_sk_hsl_to_rgb_sse2+0x19>
+ .byte 232,0,0,0,0 // call 2406 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,30,114,0,0 // movaps 0x721e(%eax),%xmm4
+ .byte 15,40,160,26,114,0,0 // movaps 0x721a(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -70304,13 +70316,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,46,114,0,0 // movaps 0x722e(%eax),%xmm5
+ .byte 15,40,168,42,114,0,0 // movaps 0x722a(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,62,114,0,0 // movaps 0x723e(%eax),%xmm6
+ .byte 15,40,176,58,114,0,0 // movaps 0x723a(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -70320,19 +70332,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,78,114,0,0 // movaps 0x724e(%eax),%xmm7
+ .byte 15,40,184,74,114,0,0 // movaps 0x724a(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,126,114,0,0 // movaps 0x727e(%eax),%xmm4
+ .byte 15,40,160,122,114,0,0 // movaps 0x727a(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,94,114,0,0 // movaps 0x725e(%eax),%xmm6
+ .byte 15,40,176,90,114,0,0 // movaps 0x725a(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,110,114,0,0 // movaps 0x726e(%eax),%xmm0
+ .byte 15,40,128,106,114,0,0 // movaps 0x726a(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -70358,18 +70370,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,62,114,0,0 // andps 0x723e(%eax),%xmm1
+ .byte 15,84,136,58,114,0,0 // andps 0x723a(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,78,114,0,0 // movaps 0x724e(%eax),%xmm0
+ .byte 15,40,128,74,114,0,0 // movaps 0x724a(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,30,114,0,0 // movaps 0x721e(%eax),%xmm3
+ .byte 15,40,152,26,114,0,0 // movaps 0x721a(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,126,114,0,0 // movaps 0x727e(%eax),%xmm4
+ .byte 15,40,160,122,114,0,0 // movaps 0x727a(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,110,114,0,0 // movaps 0x726e(%eax),%xmm5
+ .byte 15,40,168,106,114,0,0 // movaps 0x726a(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -70389,7 +70401,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,142,114,0,0 // addps 0x728e(%eax),%xmm3
+ .byte 15,88,152,138,114,0,0 // addps 0x728a(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -70476,7 +70488,7 @@ _sk_scale_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 269c <_sk_scale_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2680 <_sk_scale_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -70487,13 +70499,13 @@ _sk_scale_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,65 // jne 26f8 <_sk_scale_u8_sse2+0x6a>
+ .byte 117,65 // jne 26dc <_sk_scale_u8_sse2+0x6a>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,36,112,0,0 // pand 0x7024(%edx),%xmm4
+ .byte 102,15,219,162,32,112,0,0 // pand 0x7020(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,52,112,0,0 // mulps 0x7034(%edx),%xmm4
+ .byte 15,89,162,48,112,0,0 // mulps 0x7030(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -70512,12 +70524,12 @@ _sk_scale_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 2732 <_sk_scale_u8_sse2+0xa4>
+ .byte 116,50 // je 2716 <_sk_scale_u8_sse2+0xa4>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 271c <_sk_scale_u8_sse2+0x8e>
+ .byte 116,19 // je 2700 <_sk_scale_u8_sse2+0x8e>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,182 // jne 26c4 <_sk_scale_u8_sse2+0x36>
+ .byte 117,182 // jne 26a8 <_sk_scale_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -70526,10 +70538,10 @@ _sk_scale_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,146 // jmp 26c4 <_sk_scale_u8_sse2+0x36>
+ .byte 235,146 // jmp 26a8 <_sk_scale_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,136 // jmp 26c4 <_sk_scale_u8_sse2+0x36>
+ .byte 235,136 // jmp 26a8 <_sk_scale_u8_sse2+0x36>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -70578,7 +70590,7 @@ _sk_lerp_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 27a4 <_sk_lerp_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2788 <_sk_lerp_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -70589,13 +70601,13 @@ _sk_lerp_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 2825 <_sk_lerp_u8_sse2+0x8f>
+ .byte 117,102 // jne 2809 <_sk_lerp_u8_sse2+0x8f>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,60,111,0,0 // pand 0x6f3c(%edx),%xmm4
+ .byte 102,15,219,162,56,111,0,0 // pand 0x6f38(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,76,111,0,0 // mulps 0x6f4c(%edx),%xmm4
+ .byte 15,89,162,72,111,0,0 // mulps 0x6f48(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -70625,12 +70637,12 @@ _sk_lerp_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,53 // je 2862 <_sk_lerp_u8_sse2+0xcc>
+ .byte 116,53 // je 2846 <_sk_lerp_u8_sse2+0xcc>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2849 <_sk_lerp_u8_sse2+0xb3>
+ .byte 116,19 // je 282d <_sk_lerp_u8_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,145 // jne 27cc <_sk_lerp_u8_sse2+0x36>
+ .byte 117,145 // jne 27b0 <_sk_lerp_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -70639,10 +70651,10 @@ _sk_lerp_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,106,255,255,255 // jmp 27cc <_sk_lerp_u8_sse2+0x36>
+ .byte 233,106,255,255,255 // jmp 27b0 <_sk_lerp_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,93,255,255,255 // jmp 27cc <_sk_lerp_u8_sse2+0x36>
+ .byte 233,93,255,255,255 // jmp 27b0 <_sk_lerp_u8_sse2+0x36>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -70654,7 +70666,7 @@ _sk_lerp_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 287d <_sk_lerp_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2861 <_sk_lerp_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -70666,20 +70678,20 @@ _sk_lerp_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,163,0,0,0 // jne 2941 <_sk_lerp_565_sse2+0xd2>
+ .byte 15,133,163,0,0,0 // jne 2925 <_sk_lerp_565_sse2+0xd2>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,131,110,0,0 // movdqa 0x6e83(%edx),%xmm4
+ .byte 102,15,111,162,127,110,0,0 // movdqa 0x6e7f(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,147,110,0,0 // mulps 0x6e93(%edx),%xmm4
- .byte 102,15,111,170,163,110,0,0 // movdqa 0x6ea3(%edx),%xmm5
+ .byte 15,89,162,143,110,0,0 // mulps 0x6e8f(%edx),%xmm4
+ .byte 102,15,111,170,159,110,0,0 // movdqa 0x6e9f(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,179,110,0,0 // mulps 0x6eb3(%edx),%xmm5
- .byte 102,15,219,178,195,110,0,0 // pand 0x6ec3(%edx),%xmm6
+ .byte 15,89,170,175,110,0,0 // mulps 0x6eaf(%edx),%xmm5
+ .byte 102,15,219,178,191,110,0,0 // pand 0x6ebf(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,211,110,0,0 // mulps 0x6ed3(%edx),%xmm6
+ .byte 15,89,178,207,110,0,0 // mulps 0x6ecf(%edx),%xmm6
.byte 15,40,121,16 // movaps 0x10(%ecx),%xmm7
.byte 15,92,199 // subps %xmm7,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -70716,22 +70728,22 @@ _sk_lerp_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 297b <_sk_lerp_565_sse2+0x10c>
+ .byte 116,50 // je 295f <_sk_lerp_565_sse2+0x10c>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2969 <_sk_lerp_565_sse2+0xfa>
+ .byte 116,23 // je 294d <_sk_lerp_565_sse2+0xfa>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,76,255,255,255 // jne 28a7 <_sk_lerp_565_sse2+0x38>
+ .byte 15,133,76,255,255,255 // jne 288b <_sk_lerp_565_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,44,255,255,255 // jmp 28a7 <_sk_lerp_565_sse2+0x38>
+ .byte 233,44,255,255,255 // jmp 288b <_sk_lerp_565_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,246 // movd %esi,%xmm6
- .byte 233,31,255,255,255 // jmp 28a7 <_sk_lerp_565_sse2+0x38>
+ .byte 233,31,255,255,255 // jmp 288b <_sk_lerp_565_sse2+0x38>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -70743,7 +70755,7 @@ _sk_load_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2996 <_sk_load_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 297a <_sk_load_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -70752,9 +70764,9 @@ _sk_load_tables_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,19,1,0,0 // jne 2ac1 <_sk_load_tables_sse2+0x139>
+ .byte 15,133,19,1,0,0 // jne 2aa5 <_sk_load_tables_sse2+0x139>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,202,109,0,0 // movdqa 0x6dca(%edx),%xmm2
+ .byte 102,15,111,146,198,109,0,0 // movdqa 0x6dc6(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -70810,7 +70822,7 @@ _sk_load_tables_sse2:
.byte 15,20,215 // unpcklps %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,218,109,0,0 // mulps 0x6dda(%edx),%xmm3
+ .byte 15,89,154,214,109,0,0 // mulps 0x6dd6(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70826,18 +70838,18 @@ _sk_load_tables_sse2:
.byte 195 // ret
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2aec <_sk_load_tables_sse2+0x164>
+ .byte 116,37 // je 2ad0 <_sk_load_tables_sse2+0x164>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2ae2 <_sk_load_tables_sse2+0x15a>
+ .byte 116,19 // je 2ac6 <_sk_load_tables_sse2+0x15a>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,220,254,255,255 // jne 29b3 <_sk_load_tables_sse2+0x2b>
+ .byte 15,133,220,254,255,255 // jne 2997 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
- .byte 233,199,254,255,255 // jmp 29b3 <_sk_load_tables_sse2+0x2b>
+ .byte 233,199,254,255,255 // jmp 2997 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
- .byte 233,189,254,255,255 // jmp 29b3 <_sk_load_tables_sse2+0x2b>
+ .byte 233,189,254,255,255 // jmp 2997 <_sk_load_tables_sse2+0x2b>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -70849,7 +70861,7 @@ _sk_load_tables_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 232,0,0,0,0 // call 2b04 <_sk_load_tables_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2ae8 <_sk_load_tables_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
@@ -70860,7 +70872,7 @@ _sk_load_tables_u16_be_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 139,15 // mov (%edi),%ecx
.byte 190,255,0,255,0 // mov $0xff00ff,%esi
- .byte 15,133,166,1,0,0 // jne 2cca <_sk_load_tables_u16_be_sse2+0x1d4>
+ .byte 15,133,166,1,0,0 // jne 2cae <_sk_load_tables_u16_be_sse2+0x1d4>
.byte 102,15,16,4,89 // movupd (%ecx,%ebx,2),%xmm0
.byte 243,15,111,76,89,16 // movdqu 0x10(%ecx,%ebx,2),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -70957,7 +70969,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,208 // movq -0x30(%ebp),%xmm3
.byte 102,15,97,223 // punpcklwd %xmm7,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,124,108,0,0 // mulps 0x6c7c(%edx),%xmm3
+ .byte 15,89,154,120,108,0,0 // mulps 0x6c78(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,193 // mov %eax,%ecx
.byte 141,65,8 // lea 0x8(%ecx),%eax
@@ -70974,12 +70986,12 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,16,4,89 // movsd (%ecx,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,83,254,255,255 // je 2b2f <_sk_load_tables_u16_be_sse2+0x39>
+ .byte 15,132,83,254,255,255 // je 2b13 <_sk_load_tables_u16_be_sse2+0x39>
.byte 102,15,22,68,89,8 // movhpd 0x8(%ecx,%ebx,2),%xmm0
.byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,68,254,255,255 // jb 2b2f <_sk_load_tables_u16_be_sse2+0x39>
+ .byte 15,130,68,254,255,255 // jb 2b13 <_sk_load_tables_u16_be_sse2+0x39>
.byte 243,15,126,76,89,16 // movq 0x10(%ecx,%ebx,2),%xmm1
- .byte 233,57,254,255,255 // jmp 2b2f <_sk_load_tables_u16_be_sse2+0x39>
+ .byte 233,57,254,255,255 // jmp 2b13 <_sk_load_tables_u16_be_sse2+0x39>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -70991,7 +71003,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,28 // sub $0x1c,%esp
- .byte 232,0,0,0,0 // call 2d04 <_sk_load_tables_rgb_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2ce8 <_sk_load_tables_rgb_u16_be_sse2+0xe>
.byte 88 // pop %eax
.byte 137,69,240 // mov %eax,-0x10(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -71002,7 +71014,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 139,56 // mov (%eax),%edi
.byte 139,7 // mov (%edi),%eax
.byte 190,255,0,255,0 // mov $0xff00ff,%esi
- .byte 15,133,141,1,0,0 // jne 2eb2 <_sk_load_tables_rgb_u16_be_sse2+0x1bc>
+ .byte 15,133,141,1,0,0 // jne 2e96 <_sk_load_tables_rgb_u16_be_sse2+0x1bc>
.byte 243,15,111,12,88 // movdqu (%eax,%ebx,2),%xmm1
.byte 243,15,111,92,88,8 // movdqu 0x8(%eax,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -71096,7 +71108,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 141,65,8 // lea 0x8(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 139,85,240 // mov -0x10(%ebp),%edx
- .byte 15,40,162,140,106,0,0 // movaps 0x6a8c(%edx),%xmm4
+ .byte 15,40,162,136,106,0,0 // movaps 0x6a88(%edx),%xmm4
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 80 // push %eax
@@ -71112,20 +71124,20 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,196,76,88,4,2 // pinsrw $0x2,0x4(%eax,%ebx,2),%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,249,1 // cmp $0x1,%ecx
- .byte 117,13 // jne 2ed4 <_sk_load_tables_rgb_u16_be_sse2+0x1de>
+ .byte 117,13 // jne 2eb8 <_sk_load_tables_rgb_u16_be_sse2+0x1de>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,115,254,255,255 // jmp 2d47 <_sk_load_tables_rgb_u16_be_sse2+0x51>
+ .byte 233,115,254,255,255 // jmp 2d2b <_sk_load_tables_rgb_u16_be_sse2+0x51>
.byte 102,15,110,68,88,6 // movd 0x6(%eax,%ebx,2),%xmm0
.byte 102,15,196,68,88,10,2 // pinsrw $0x2,0xa(%eax,%ebx,2),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,249,3 // cmp $0x3,%ecx
- .byte 114,18 // jb 2efc <_sk_load_tables_rgb_u16_be_sse2+0x206>
+ .byte 114,18 // jb 2ee0 <_sk_load_tables_rgb_u16_be_sse2+0x206>
.byte 102,15,110,92,88,12 // movd 0xc(%eax,%ebx,2),%xmm3
.byte 102,15,196,92,88,16,2 // pinsrw $0x2,0x10(%eax,%ebx,2),%xmm3
- .byte 233,75,254,255,255 // jmp 2d47 <_sk_load_tables_rgb_u16_be_sse2+0x51>
+ .byte 233,75,254,255,255 // jmp 2d2b <_sk_load_tables_rgb_u16_be_sse2+0x51>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,66,254,255,255 // jmp 2d47 <_sk_load_tables_rgb_u16_be_sse2+0x51>
+ .byte 233,66,254,255,255 // jmp 2d2b <_sk_load_tables_rgb_u16_be_sse2+0x51>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -71137,11 +71149,11 @@ _sk_byte_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2f13 <_sk_byte_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2ef7 <_sk_byte_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,141,104,0,0 // movaps 0x688d(%edx),%xmm4
+ .byte 15,40,162,137,104,0,0 // movaps 0x6889(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -71163,7 +71175,7 @@ _sk_byte_tables_sse2:
.byte 102,15,196,192,0 // pinsrw $0x0,%eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,157,104,0,0 // movaps 0x689d(%edx),%xmm5
+ .byte 15,40,170,153,104,0,0 // movaps 0x6899(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -71288,12 +71300,12 @@ _sk_byte_tables_rgb_sse2:
.byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi
.byte 193,231,8 // shl $0x8,%edi
.byte 9,215 // or %edx,%edi
- .byte 232,0,0,0,0 // call 3113 <_sk_byte_tables_rgb_sse2+0x65>
+ .byte 232,0,0,0,0 // call 30f7 <_sk_byte_tables_rgb_sse2+0x65>
.byte 90 // pop %edx
.byte 102,15,196,199,0 // pinsrw $0x0,%edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,173,102,0,0 // movaps 0x66ad(%edx),%xmm5
+ .byte 15,40,170,169,102,0,0 // movaps 0x66a9(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -71529,7 +71541,7 @@ _sk_parametric_r_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 33e2 <_sk_parametric_r_sse2+0x18>
+ .byte 232,0,0,0,0 // call 33c6 <_sk_parametric_r_sse2+0x18>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -71549,15 +71561,15 @@ _sk_parametric_r_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,238,99,0,0 // mulps 0x63ee(%edx),%xmm5
- .byte 15,84,178,254,99,0,0 // andps 0x63fe(%edx),%xmm6
- .byte 15,86,178,14,100,0,0 // orps 0x640e(%edx),%xmm6
- .byte 15,88,170,30,100,0,0 // addps 0x641e(%edx),%xmm5
- .byte 15,40,186,46,100,0,0 // movaps 0x642e(%edx),%xmm7
+ .byte 15,89,170,234,99,0,0 // mulps 0x63ea(%edx),%xmm5
+ .byte 15,84,178,250,99,0,0 // andps 0x63fa(%edx),%xmm6
+ .byte 15,86,178,10,100,0,0 // orps 0x640a(%edx),%xmm6
+ .byte 15,88,170,26,100,0,0 // addps 0x641a(%edx),%xmm5
+ .byte 15,40,186,42,100,0,0 // movaps 0x642a(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,62,100,0,0 // addps 0x643e(%edx),%xmm6
- .byte 15,40,186,78,100,0,0 // movaps 0x644e(%edx),%xmm7
+ .byte 15,88,178,58,100,0,0 // addps 0x643a(%edx),%xmm6
+ .byte 15,40,186,74,100,0,0 // movaps 0x644a(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -71567,21 +71579,21 @@ _sk_parametric_r_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,94,100,0,0 // movaps 0x645e(%edx),%xmm6
+ .byte 15,40,178,90,100,0,0 // movaps 0x645a(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,110,100,0,0 // addps 0x646e(%edx),%xmm5
- .byte 15,40,186,126,100,0,0 // movaps 0x647e(%edx),%xmm7
+ .byte 15,88,170,106,100,0,0 // addps 0x646a(%edx),%xmm5
+ .byte 15,40,186,122,100,0,0 // movaps 0x647a(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,142,100,0,0 // movaps 0x648e(%edx),%xmm7
+ .byte 15,40,186,138,100,0,0 // movaps 0x648a(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,158,100,0,0 // movaps 0x649e(%edx),%xmm0
+ .byte 15,40,130,154,100,0,0 // movaps 0x649a(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,174,100,0,0 // mulps 0x64ae(%edx),%xmm0
+ .byte 15,89,130,170,100,0,0 // mulps 0x64aa(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71615,7 +71627,7 @@ _sk_parametric_g_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3519 <_sk_parametric_g_sse2+0x15>
+ .byte 232,0,0,0,0 // call 34fd <_sk_parametric_g_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -71635,15 +71647,15 @@ _sk_parametric_g_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,135,99,0,0 // mulps 0x6387(%edx),%xmm5
- .byte 15,84,178,151,99,0,0 // andps 0x6397(%edx),%xmm6
- .byte 15,86,178,167,99,0,0 // orps 0x63a7(%edx),%xmm6
- .byte 15,88,170,183,99,0,0 // addps 0x63b7(%edx),%xmm5
- .byte 15,40,186,199,99,0,0 // movaps 0x63c7(%edx),%xmm7
+ .byte 15,89,170,131,99,0,0 // mulps 0x6383(%edx),%xmm5
+ .byte 15,84,178,147,99,0,0 // andps 0x6393(%edx),%xmm6
+ .byte 15,86,178,163,99,0,0 // orps 0x63a3(%edx),%xmm6
+ .byte 15,88,170,179,99,0,0 // addps 0x63b3(%edx),%xmm5
+ .byte 15,40,186,195,99,0,0 // movaps 0x63c3(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,215,99,0,0 // addps 0x63d7(%edx),%xmm6
- .byte 15,40,186,231,99,0,0 // movaps 0x63e7(%edx),%xmm7
+ .byte 15,88,178,211,99,0,0 // addps 0x63d3(%edx),%xmm6
+ .byte 15,40,186,227,99,0,0 // movaps 0x63e3(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -71653,21 +71665,21 @@ _sk_parametric_g_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,247,99,0,0 // movaps 0x63f7(%edx),%xmm6
+ .byte 15,40,178,243,99,0,0 // movaps 0x63f3(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,7,100,0,0 // addps 0x6407(%edx),%xmm5
- .byte 15,40,186,23,100,0,0 // movaps 0x6417(%edx),%xmm7
+ .byte 15,88,170,3,100,0,0 // addps 0x6403(%edx),%xmm5
+ .byte 15,40,186,19,100,0,0 // movaps 0x6413(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,39,100,0,0 // movaps 0x6427(%edx),%xmm7
+ .byte 15,40,186,35,100,0,0 // movaps 0x6423(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,55,100,0,0 // movaps 0x6437(%edx),%xmm0
+ .byte 15,40,130,51,100,0,0 // movaps 0x6433(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,71,100,0,0 // mulps 0x6447(%edx),%xmm0
+ .byte 15,89,130,67,100,0,0 // mulps 0x6443(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71700,7 +71712,7 @@ _sk_parametric_b_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 364d <_sk_parametric_b_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3631 <_sk_parametric_b_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -71720,15 +71732,15 @@ _sk_parametric_b_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,35,99,0,0 // mulps 0x6323(%edx),%xmm5
- .byte 15,84,178,51,99,0,0 // andps 0x6333(%edx),%xmm6
- .byte 15,86,178,67,99,0,0 // orps 0x6343(%edx),%xmm6
- .byte 15,88,170,83,99,0,0 // addps 0x6353(%edx),%xmm5
- .byte 15,40,186,99,99,0,0 // movaps 0x6363(%edx),%xmm7
+ .byte 15,89,170,31,99,0,0 // mulps 0x631f(%edx),%xmm5
+ .byte 15,84,178,47,99,0,0 // andps 0x632f(%edx),%xmm6
+ .byte 15,86,178,63,99,0,0 // orps 0x633f(%edx),%xmm6
+ .byte 15,88,170,79,99,0,0 // addps 0x634f(%edx),%xmm5
+ .byte 15,40,186,95,99,0,0 // movaps 0x635f(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,115,99,0,0 // addps 0x6373(%edx),%xmm6
- .byte 15,40,186,131,99,0,0 // movaps 0x6383(%edx),%xmm7
+ .byte 15,88,178,111,99,0,0 // addps 0x636f(%edx),%xmm6
+ .byte 15,40,186,127,99,0,0 // movaps 0x637f(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -71738,21 +71750,21 @@ _sk_parametric_b_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,147,99,0,0 // movaps 0x6393(%edx),%xmm6
+ .byte 15,40,178,143,99,0,0 // movaps 0x638f(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,163,99,0,0 // addps 0x63a3(%edx),%xmm5
- .byte 15,40,186,179,99,0,0 // movaps 0x63b3(%edx),%xmm7
+ .byte 15,88,170,159,99,0,0 // addps 0x639f(%edx),%xmm5
+ .byte 15,40,186,175,99,0,0 // movaps 0x63af(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,195,99,0,0 // movaps 0x63c3(%edx),%xmm7
+ .byte 15,40,186,191,99,0,0 // movaps 0x63bf(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,211,99,0,0 // movaps 0x63d3(%edx),%xmm0
+ .byte 15,40,130,207,99,0,0 // movaps 0x63cf(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,227,99,0,0 // mulps 0x63e3(%edx),%xmm0
+ .byte 15,89,130,223,99,0,0 // mulps 0x63df(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71785,7 +71797,7 @@ _sk_parametric_a_sse2:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 3781 <_sk_parametric_a_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3765 <_sk_parametric_a_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -71805,15 +71817,15 @@ _sk_parametric_a_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,191,98,0,0 // mulps 0x62bf(%edx),%xmm5
- .byte 15,84,178,207,98,0,0 // andps 0x62cf(%edx),%xmm6
- .byte 15,86,178,223,98,0,0 // orps 0x62df(%edx),%xmm6
- .byte 15,88,170,239,98,0,0 // addps 0x62ef(%edx),%xmm5
- .byte 15,40,186,255,98,0,0 // movaps 0x62ff(%edx),%xmm7
+ .byte 15,89,170,187,98,0,0 // mulps 0x62bb(%edx),%xmm5
+ .byte 15,84,178,203,98,0,0 // andps 0x62cb(%edx),%xmm6
+ .byte 15,86,178,219,98,0,0 // orps 0x62db(%edx),%xmm6
+ .byte 15,88,170,235,98,0,0 // addps 0x62eb(%edx),%xmm5
+ .byte 15,40,186,251,98,0,0 // movaps 0x62fb(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,15,99,0,0 // addps 0x630f(%edx),%xmm6
- .byte 15,40,186,31,99,0,0 // movaps 0x631f(%edx),%xmm7
+ .byte 15,88,178,11,99,0,0 // addps 0x630b(%edx),%xmm6
+ .byte 15,40,186,27,99,0,0 // movaps 0x631b(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -71823,21 +71835,21 @@ _sk_parametric_a_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,47,99,0,0 // movaps 0x632f(%edx),%xmm6
+ .byte 15,40,178,43,99,0,0 // movaps 0x632b(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,63,99,0,0 // addps 0x633f(%edx),%xmm5
- .byte 15,40,186,79,99,0,0 // movaps 0x634f(%edx),%xmm7
+ .byte 15,88,170,59,99,0,0 // addps 0x633b(%edx),%xmm5
+ .byte 15,40,186,75,99,0,0 // movaps 0x634b(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,95,99,0,0 // movaps 0x635f(%edx),%xmm7
+ .byte 15,40,186,91,99,0,0 // movaps 0x635b(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,111,99,0,0 // movaps 0x636f(%edx),%xmm0
+ .byte 15,40,130,107,99,0,0 // movaps 0x636b(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,127,99,0,0 // mulps 0x637f(%edx),%xmm0
+ .byte 15,89,130,123,99,0,0 // mulps 0x637b(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71869,18 +71881,18 @@ _sk_gamma_sse2:
.byte 131,236,40 // sub $0x28,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 38b2 <_sk_gamma_sse2+0x12>
+ .byte 232,0,0,0,0 // call 3896 <_sk_gamma_sse2+0x12>
.byte 88 // pop %eax
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,128,94,98,0,0 // mulps 0x625e(%eax),%xmm0
- .byte 15,84,152,110,98,0,0 // andps 0x626e(%eax),%xmm3
- .byte 15,86,152,126,98,0,0 // orps 0x627e(%eax),%xmm3
- .byte 15,88,128,142,98,0,0 // addps 0x628e(%eax),%xmm0
+ .byte 15,89,128,90,98,0,0 // mulps 0x625a(%eax),%xmm0
+ .byte 15,84,152,106,98,0,0 // andps 0x626a(%eax),%xmm3
+ .byte 15,86,152,122,98,0,0 // orps 0x627a(%eax),%xmm3
+ .byte 15,88,128,138,98,0,0 // addps 0x628a(%eax),%xmm0
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,160,158,98,0,0 // mulps 0x629e(%eax),%xmm4
+ .byte 15,89,160,154,98,0,0 // mulps 0x629a(%eax),%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,152,174,98,0,0 // addps 0x62ae(%eax),%xmm3
- .byte 15,40,160,190,98,0,0 // movaps 0x62be(%eax),%xmm4
+ .byte 15,88,152,170,98,0,0 // addps 0x62aa(%eax),%xmm3
+ .byte 15,40,160,186,98,0,0 // movaps 0x62ba(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -71893,30 +71905,30 @@ _sk_gamma_sse2:
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,227,1 // cmpltps %xmm3,%xmm4
- .byte 15,84,160,206,98,0,0 // andps 0x62ce(%eax),%xmm4
+ .byte 15,84,160,202,98,0,0 // andps 0x62ca(%eax),%xmm4
.byte 15,92,220 // subps %xmm4,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,88,128,222,98,0,0 // addps 0x62de(%eax),%xmm0
- .byte 15,40,176,254,98,0,0 // movaps 0x62fe(%eax),%xmm6
+ .byte 15,88,128,218,98,0,0 // addps 0x62da(%eax),%xmm0
+ .byte 15,40,176,250,98,0,0 // movaps 0x62fa(%eax),%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,168,238,98,0,0 // movaps 0x62ee(%eax),%xmm5
+ .byte 15,40,168,234,98,0,0 // movaps 0x62ea(%eax),%xmm5
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,152,14,99,0,0 // movaps 0x630e(%eax),%xmm3
+ .byte 15,40,152,10,99,0,0 // movaps 0x630a(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,94,230 // divps %xmm6,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,94,98,0,0 // mulps 0x625e(%eax),%xmm0
- .byte 15,84,136,110,98,0,0 // andps 0x626e(%eax),%xmm1
- .byte 15,86,136,126,98,0,0 // orps 0x627e(%eax),%xmm1
- .byte 15,88,128,142,98,0,0 // addps 0x628e(%eax),%xmm0
+ .byte 15,89,128,90,98,0,0 // mulps 0x625a(%eax),%xmm0
+ .byte 15,84,136,106,98,0,0 // andps 0x626a(%eax),%xmm1
+ .byte 15,86,136,122,98,0,0 // orps 0x627a(%eax),%xmm1
+ .byte 15,88,128,138,98,0,0 // addps 0x628a(%eax),%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,176,158,98,0,0 // mulps 0x629e(%eax),%xmm6
+ .byte 15,89,176,154,98,0,0 // mulps 0x629a(%eax),%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,136,174,98,0,0 // addps 0x62ae(%eax),%xmm1
- .byte 15,40,176,190,98,0,0 // movaps 0x62be(%eax),%xmm6
+ .byte 15,88,136,170,98,0,0 // addps 0x62aa(%eax),%xmm1
+ .byte 15,40,176,186,98,0,0 // movaps 0x62ba(%eax),%xmm6
.byte 15,94,241 // divps %xmm1,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -71924,12 +71936,12 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,241,1 // cmpltps %xmm1,%xmm6
- .byte 15,84,176,206,98,0,0 // andps 0x62ce(%eax),%xmm6
+ .byte 15,84,176,202,98,0,0 // andps 0x62ca(%eax),%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,88,128,222,98,0,0 // addps 0x62de(%eax),%xmm0
- .byte 15,40,184,254,98,0,0 // movaps 0x62fe(%eax),%xmm7
+ .byte 15,88,128,218,98,0,0 // addps 0x62da(%eax),%xmm0
+ .byte 15,40,184,250,98,0,0 // movaps 0x62fa(%eax),%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -71937,15 +71949,15 @@ _sk_gamma_sse2:
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,128,94,98,0,0 // mulps 0x625e(%eax),%xmm0
- .byte 15,84,144,110,98,0,0 // andps 0x626e(%eax),%xmm2
- .byte 15,86,144,126,98,0,0 // orps 0x627e(%eax),%xmm2
- .byte 15,88,128,142,98,0,0 // addps 0x628e(%eax),%xmm0
- .byte 15,40,176,158,98,0,0 // movaps 0x629e(%eax),%xmm6
+ .byte 15,89,128,90,98,0,0 // mulps 0x625a(%eax),%xmm0
+ .byte 15,84,144,106,98,0,0 // andps 0x626a(%eax),%xmm2
+ .byte 15,86,144,122,98,0,0 // orps 0x627a(%eax),%xmm2
+ .byte 15,88,128,138,98,0,0 // addps 0x628a(%eax),%xmm0
+ .byte 15,40,176,154,98,0,0 // movaps 0x629a(%eax),%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,144,174,98,0,0 // addps 0x62ae(%eax),%xmm2
- .byte 15,40,176,190,98,0,0 // movaps 0x62be(%eax),%xmm6
+ .byte 15,88,144,170,98,0,0 // addps 0x62aa(%eax),%xmm2
+ .byte 15,40,176,186,98,0,0 // movaps 0x62ba(%eax),%xmm6
.byte 15,94,242 // divps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
@@ -71953,18 +71965,18 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,242,1 // cmpltps %xmm2,%xmm6
- .byte 15,84,176,206,98,0,0 // andps 0x62ce(%eax),%xmm6
+ .byte 15,84,176,202,98,0,0 // andps 0x62ca(%eax),%xmm6
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,88,128,222,98,0,0 // addps 0x62de(%eax),%xmm0
+ .byte 15,88,128,218,98,0,0 // addps 0x62da(%eax),%xmm0
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,144,254,98,0,0 // movaps 0x62fe(%eax),%xmm2
+ .byte 15,40,144,250,98,0,0 // movaps 0x62fa(%eax),%xmm2
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,128,30,99,0,0 // movaps 0x631e(%eax),%xmm0
+ .byte 15,40,128,26,99,0,0 // movaps 0x631a(%eax),%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,89,216 // mulps %xmm0,%xmm3
@@ -71991,31 +72003,31 @@ _sk_lab_to_xyz_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3a9a <_sk_lab_to_xyz_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3a7e <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,70,97,0,0 // mulps 0x6146(%eax),%xmm2
- .byte 15,40,160,86,97,0,0 // movaps 0x6156(%eax),%xmm4
+ .byte 15,89,144,66,97,0,0 // mulps 0x6142(%eax),%xmm2
+ .byte 15,40,160,82,97,0,0 // movaps 0x6152(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,102,97,0,0 // movaps 0x6166(%eax),%xmm5
+ .byte 15,40,168,98,97,0,0 // movaps 0x6162(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,118,97,0,0 // addps 0x6176(%eax),%xmm2
- .byte 15,89,144,134,97,0,0 // mulps 0x6186(%eax),%xmm2
- .byte 15,89,136,150,97,0,0 // mulps 0x6196(%eax),%xmm1
+ .byte 15,88,144,114,97,0,0 // addps 0x6172(%eax),%xmm2
+ .byte 15,89,144,130,97,0,0 // mulps 0x6182(%eax),%xmm2
+ .byte 15,89,136,146,97,0,0 // mulps 0x6192(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,166,97,0,0 // mulps 0x61a6(%eax),%xmm3
+ .byte 15,89,152,162,97,0,0 // mulps 0x61a2(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,182,97,0,0 // movaps 0x61b6(%eax),%xmm3
+ .byte 15,40,152,178,97,0,0 // movaps 0x61b2(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,198,97,0,0 // movaps 0x61c6(%eax),%xmm6
+ .byte 15,40,176,194,97,0,0 // movaps 0x61c2(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,214,97,0,0 // movaps 0x61d6(%eax),%xmm7
+ .byte 15,40,184,210,97,0,0 // movaps 0x61d2(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -72040,8 +72052,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,230,97,0,0 // mulps 0x61e6(%eax),%xmm4
- .byte 15,89,152,246,97,0,0 // mulps 0x61f6(%eax),%xmm3
+ .byte 15,89,160,226,97,0,0 // mulps 0x61e2(%eax),%xmm4
+ .byte 15,89,152,242,97,0,0 // mulps 0x61f2(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -72064,7 +72076,7 @@ _sk_load_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3b8a <_sk_load_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3b6e <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72075,13 +72087,13 @@ _sk_load_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 3be1 <_sk_load_a8_sse2+0x65>
+ .byte 117,60 // jne 3bc5 <_sk_load_a8_sse2+0x65>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,22,97,0,0 // pand 0x6116(%edx),%xmm0
+ .byte 102,15,219,130,18,97,0,0 // pand 0x6112(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,38,97,0,0 // mulps 0x6126(%edx),%xmm3
+ .byte 15,89,154,34,97,0,0 // mulps 0x6122(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -72098,12 +72110,12 @@ _sk_load_a8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 3c1b <_sk_load_a8_sse2+0x9f>
+ .byte 116,50 // je 3bff <_sk_load_a8_sse2+0x9f>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3c05 <_sk_load_a8_sse2+0x89>
+ .byte 116,19 // je 3be9 <_sk_load_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 3bb2 <_sk_load_a8_sse2+0x36>
+ .byte 117,187 // jne 3b96 <_sk_load_a8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -72112,10 +72124,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 3bb2 <_sk_load_a8_sse2+0x36>
+ .byte 235,151 // jmp 3b96 <_sk_load_a8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 3bb2 <_sk_load_a8_sse2+0x36>
+ .byte 235,141 // jmp 3b96 <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -72140,15 +72152,15 @@ _sk_load_a8_dst_sse2:
.byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
.byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 3c5e <_sk_load_a8_dst_sse2+0x39>
+ .byte 232,0,0,0,0 // call 3c42 <_sk_load_a8_dst_sse2+0x39>
.byte 90 // pop %edx
- .byte 117,54 // jne 3c97 <_sk_load_a8_dst_sse2+0x72>
+ .byte 117,54 // jne 3c7b <_sk_load_a8_dst_sse2+0x72>
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,98,96,0,0 // pand 0x6062(%edx),%xmm4
+ .byte 102,15,219,162,94,96,0,0 // pand 0x605e(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,114,96,0,0 // mulps 0x6072(%edx),%xmm4
+ .byte 15,89,162,110,96,0,0 // mulps 0x606e(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -72163,11 +72175,11 @@ _sk_load_a8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 3ccd <_sk_load_a8_dst_sse2+0xa8>
+ .byte 116,46 // je 3cb1 <_sk_load_a8_dst_sse2+0xa8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3cb7 <_sk_load_a8_dst_sse2+0x92>
+ .byte 116,19 // je 3c9b <_sk_load_a8_dst_sse2+0x92>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 3c6e <_sk_load_a8_dst_sse2+0x49>
+ .byte 117,197 // jne 3c52 <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -72176,10 +72188,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 3c6e <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,161 // jmp 3c52 <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 3c6e <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,151 // jmp 3c52 <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -72220,13 +72232,13 @@ _sk_gather_a8_sse2:
.byte 9,202 // or %ecx,%edx
.byte 102,15,196,194,0 // pinsrw $0x0,%edx,%xmm0
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 3d5c <_sk_gather_a8_sse2+0x85>
+ .byte 232,0,0,0,0 // call 3d40 <_sk_gather_a8_sse2+0x85>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,132,95,0,0 // mulps 0x5f84(%ecx),%xmm3
+ .byte 15,89,153,128,95,0,0 // mulps 0x5f80(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -72251,7 +72263,7 @@ _sk_store_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
- .byte 232,0,0,0,0 // call 3da0 <_sk_store_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3d84 <_sk_store_a8_sse2+0xe>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72260,7 +72272,7 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,80,95,0,0 // movaps 0x5f50(%esi),%xmm4
+ .byte 15,40,166,76,95,0,0 // movaps 0x5f4c(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -72269,7 +72281,7 @@ _sk_store_a8_sse2:
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 3df5 <_sk_store_a8_sse2+0x63>
+ .byte 117,26 // jne 3dd9 <_sk_store_a8_sse2+0x63>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 137,52,58 // mov %esi,(%edx,%edi,1)
.byte 141,80,8 // lea 0x8(%eax),%edx
@@ -72287,26 +72299,26 @@ _sk_store_a8_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,57 // je 3e3e <_sk_store_a8_sse2+0xac>
+ .byte 116,57 // je 3e22 <_sk_store_a8_sse2+0xac>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,17 // je 3e1b <_sk_store_a8_sse2+0x89>
+ .byte 116,17 // je 3dff <_sk_store_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 3de2 <_sk_store_a8_sse2+0x50>
+ .byte 117,211 // jne 3dc6 <_sk_store_a8_sse2+0x50>
.byte 102,15,127,101,200 // movdqa %xmm4,-0x38(%ebp)
.byte 138,93,208 // mov -0x30(%ebp),%bl
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,96,95,0,0 // pand 0x5f60(%esi),%xmm4
+ .byte 102,15,219,166,92,95,0,0 // pand 0x5f5c(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,164 // jmp 3de2 <_sk_store_a8_sse2+0x50>
+ .byte 235,164 // jmp 3dc6 <_sk_store_a8_sse2+0x50>
.byte 102,15,127,101,216 // movdqa %xmm4,-0x28(%ebp)
.byte 138,93,216 // mov -0x28(%ebp),%bl
.byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,151 // jmp 3de2 <_sk_store_a8_sse2+0x50>
+ .byte 235,151 // jmp 3dc6 <_sk_store_a8_sse2+0x50>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -72318,7 +72330,7 @@ _sk_load_g8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3e59 <_sk_load_g8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3e3d <_sk_load_g8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72329,16 +72341,16 @@ _sk_load_g8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 3eb3 <_sk_load_g8_sse2+0x68>
+ .byte 117,63 // jne 3e97 <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,183,94,0,0 // pand 0x5eb7(%edx),%xmm0
+ .byte 102,15,219,130,179,94,0,0 // pand 0x5eb3(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,199,94,0,0 // mulps 0x5ec7(%edx),%xmm0
+ .byte 15,89,130,195,94,0,0 // mulps 0x5ec3(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,215,94,0,0 // movaps 0x5ed7(%edx),%xmm3
+ .byte 15,40,154,211,94,0,0 // movaps 0x5ed3(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -72352,12 +72364,12 @@ _sk_load_g8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 3eed <_sk_load_g8_sse2+0xa2>
+ .byte 116,50 // je 3ed1 <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3ed7 <_sk_load_g8_sse2+0x8c>
+ .byte 116,19 // je 3ebb <_sk_load_g8_sse2+0x8c>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 3e81 <_sk_load_g8_sse2+0x36>
+ .byte 117,184 // jne 3e65 <_sk_load_g8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -72366,10 +72378,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 3e81 <_sk_load_g8_sse2+0x36>
+ .byte 235,148 // jmp 3e65 <_sk_load_g8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 3e81 <_sk_load_g8_sse2+0x36>
+ .byte 235,138 // jmp 3e65 <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -72381,7 +72393,7 @@ _sk_load_g8_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3f05 <_sk_load_g8_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3ee9 <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72392,17 +72404,17 @@ _sk_load_g8_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 3f69 <_sk_load_g8_dst_sse2+0x72>
+ .byte 117,73 // jne 3f4d <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,59,94,0,0 // pand 0x5e3b(%edx),%xmm4
+ .byte 102,15,219,162,55,94,0,0 // pand 0x5e37(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,75,94,0,0 // mulps 0x5e4b(%edx),%xmm4
+ .byte 15,89,162,71,94,0,0 // mulps 0x5e47(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,91,94,0,0 // movaps 0x5e5b(%edx),%xmm4
+ .byte 15,40,162,87,94,0,0 // movaps 0x5e57(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -72417,12 +72429,12 @@ _sk_load_g8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 3fa3 <_sk_load_g8_dst_sse2+0xac>
+ .byte 116,50 // je 3f87 <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3f8d <_sk_load_g8_dst_sse2+0x96>
+ .byte 116,19 // je 3f71 <_sk_load_g8_dst_sse2+0x96>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 3f2d <_sk_load_g8_dst_sse2+0x36>
+ .byte 117,174 // jne 3f11 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -72431,10 +72443,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 3f2d <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,138 // jmp 3f11 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 3f2d <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,128 // jmp 3f11 <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -72474,17 +72486,17 @@ _sk_gather_g8_sse2:
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,196,194,0 // pinsrw $0x0,%edx,%xmm0
- .byte 232,0,0,0,0 // call 402d <_sk_gather_g8_sse2+0x80>
+ .byte 232,0,0,0,0 // call 4011 <_sk_gather_g8_sse2+0x80>
.byte 89 // pop %ecx
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,67,93,0,0 // mulps 0x5d43(%ecx),%xmm0
+ .byte 15,89,129,63,93,0,0 // mulps 0x5d3f(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,83,93,0,0 // movaps 0x5d53(%ecx),%xmm3
+ .byte 15,40,153,79,93,0,0 // movaps 0x5d4f(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -72506,7 +72518,7 @@ _sk_load_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4078 <_sk_load_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 405c <_sk_load_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72518,23 +72530,23 @@ _sk_load_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 40f6 <_sk_load_565_sse2+0x8c>
+ .byte 117,97 // jne 40da <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,24,93,0,0 // movdqa 0x5d18(%edx),%xmm0
+ .byte 102,15,111,130,20,93,0,0 // movdqa 0x5d14(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,40,93,0,0 // mulps 0x5d28(%edx),%xmm0
- .byte 102,15,111,138,56,93,0,0 // movdqa 0x5d38(%edx),%xmm1
+ .byte 15,89,130,36,93,0,0 // mulps 0x5d24(%edx),%xmm0
+ .byte 102,15,111,138,52,93,0,0 // movdqa 0x5d34(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,72,93,0,0 // mulps 0x5d48(%edx),%xmm1
- .byte 102,15,219,146,88,93,0,0 // pand 0x5d58(%edx),%xmm2
+ .byte 15,89,138,68,93,0,0 // mulps 0x5d44(%edx),%xmm1
+ .byte 102,15,219,146,84,93,0,0 // pand 0x5d54(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,104,93,0,0 // mulps 0x5d68(%edx),%xmm2
+ .byte 15,89,146,100,93,0,0 // mulps 0x5d64(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,120,93,0,0 // movaps 0x5d78(%edx),%xmm3
+ .byte 15,40,154,116,93,0,0 // movaps 0x5d74(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -72546,22 +72558,22 @@ _sk_load_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 412c <_sk_load_565_sse2+0xc2>
+ .byte 116,46 // je 4110 <_sk_load_565_sse2+0xc2>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 411a <_sk_load_565_sse2+0xb0>
+ .byte 116,19 // je 40fe <_sk_load_565_sse2+0xb0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 409e <_sk_load_565_sse2+0x34>
+ .byte 117,146 // jne 4082 <_sk_load_565_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,114,255,255,255 // jmp 409e <_sk_load_565_sse2+0x34>
+ .byte 233,114,255,255,255 // jmp 4082 <_sk_load_565_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,101,255,255,255 // jmp 409e <_sk_load_565_sse2+0x34>
+ .byte 233,101,255,255,255 // jmp 4082 <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -72573,7 +72585,7 @@ _sk_load_565_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4147 <_sk_load_565_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 412b <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72585,24 +72597,24 @@ _sk_load_565_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 41d5 <_sk_load_565_dst_sse2+0x9c>
+ .byte 117,113 // jne 41b9 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,185,92,0,0 // movdqa 0x5cb9(%edx),%xmm5
+ .byte 102,15,111,170,181,92,0,0 // movdqa 0x5cb5(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,201,92,0,0 // mulps 0x5cc9(%edx),%xmm5
+ .byte 15,89,170,197,92,0,0 // mulps 0x5cc5(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,217,92,0,0 // movdqa 0x5cd9(%edx),%xmm5
+ .byte 102,15,111,170,213,92,0,0 // movdqa 0x5cd5(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,233,92,0,0 // mulps 0x5ce9(%edx),%xmm5
+ .byte 15,89,170,229,92,0,0 // mulps 0x5ce5(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,249,92,0,0 // pand 0x5cf9(%edx),%xmm4
+ .byte 102,15,219,162,245,92,0,0 // pand 0x5cf5(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,9,93,0,0 // mulps 0x5d09(%edx),%xmm4
+ .byte 15,89,162,5,93,0,0 // mulps 0x5d05(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,25,93,0,0 // movaps 0x5d19(%edx),%xmm4
+ .byte 15,40,162,21,93,0,0 // movaps 0x5d15(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -72617,22 +72629,22 @@ _sk_load_565_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 420b <_sk_load_565_dst_sse2+0xd2>
+ .byte 116,46 // je 41ef <_sk_load_565_dst_sse2+0xd2>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 41f9 <_sk_load_565_dst_sse2+0xc0>
+ .byte 116,19 // je 41dd <_sk_load_565_dst_sse2+0xc0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 416d <_sk_load_565_dst_sse2+0x34>
+ .byte 117,130 // jne 4151 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,98,255,255,255 // jmp 416d <_sk_load_565_dst_sse2+0x34>
+ .byte 233,98,255,255,255 // jmp 4151 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,85,255,255,255 // jmp 416d <_sk_load_565_dst_sse2+0x34>
+ .byte 233,85,255,255,255 // jmp 4151 <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -72667,25 +72679,25 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 4293 <_sk_gather_565_sse2+0x7b>
+ .byte 232,0,0,0,0 // call 4277 <_sk_gather_565_sse2+0x7b>
.byte 90 // pop %edx
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,221,91,0,0 // movdqa 0x5bdd(%edx),%xmm0
+ .byte 102,15,111,130,217,91,0,0 // movdqa 0x5bd9(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,237,91,0,0 // mulps 0x5bed(%edx),%xmm0
- .byte 102,15,111,138,253,91,0,0 // movdqa 0x5bfd(%edx),%xmm1
+ .byte 15,89,130,233,91,0,0 // mulps 0x5be9(%edx),%xmm0
+ .byte 102,15,111,138,249,91,0,0 // movdqa 0x5bf9(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,13,92,0,0 // mulps 0x5c0d(%edx),%xmm1
- .byte 102,15,219,146,29,92,0,0 // pand 0x5c1d(%edx),%xmm2
+ .byte 15,89,138,9,92,0,0 // mulps 0x5c09(%edx),%xmm1
+ .byte 102,15,219,146,25,92,0,0 // pand 0x5c19(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,45,92,0,0 // mulps 0x5c2d(%edx),%xmm2
+ .byte 15,89,146,41,92,0,0 // mulps 0x5c29(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,61,92,0,0 // movaps 0x5c3d(%edx),%xmm3
+ .byte 15,40,154,57,92,0,0 // movaps 0x5c39(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -72703,7 +72715,7 @@ _sk_store_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4306 <_sk_store_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 42ea <_sk_store_565_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72713,8 +72725,8 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,218,91,0,0 // movaps 0x5bda(%edi),%xmm4
- .byte 15,40,175,234,91,0,0 // movaps 0x5bea(%edi),%xmm5
+ .byte 15,40,167,214,91,0,0 // movaps 0x5bd6(%edi),%xmm4
+ .byte 15,40,175,230,91,0,0 // movaps 0x5be6(%edi),%xmm5
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
@@ -72734,7 +72746,7 @@ _sk_store_565_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 439a <_sk_store_565_sse2+0xa2>
+ .byte 117,34 // jne 437e <_sk_store_565_sse2+0xa2>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -72754,20 +72766,20 @@ _sk_store_565_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 43d0 <_sk_store_565_sse2+0xd8>
+ .byte 116,37 // je 43b4 <_sk_store_565_sse2+0xd8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 43bf <_sk_store_565_sse2+0xc7>
+ .byte 116,15 // je 43a3 <_sk_store_565_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4387 <_sk_store_565_sse2+0x8f>
+ .byte 117,210 // jne 436b <_sk_store_565_sse2+0x8f>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 4387 <_sk_store_565_sse2+0x8f>
+ .byte 235,183 // jmp 436b <_sk_store_565_sse2+0x8f>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 4387 <_sk_store_565_sse2+0x8f>
+ .byte 235,173 // jmp 436b <_sk_store_565_sse2+0x8f>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -72779,7 +72791,7 @@ _sk_load_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 43e8 <_sk_load_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 43cc <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72791,24 +72803,24 @@ _sk_load_4444_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 4475 <_sk_load_4444_sse2+0x9b>
+ .byte 117,112 // jne 4459 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,24,91,0,0 // movdqa 0x5b18(%edx),%xmm0
+ .byte 102,15,111,130,20,91,0,0 // movdqa 0x5b14(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,40,91,0,0 // mulps 0x5b28(%edx),%xmm0
- .byte 102,15,111,138,56,91,0,0 // movdqa 0x5b38(%edx),%xmm1
+ .byte 15,89,130,36,91,0,0 // mulps 0x5b24(%edx),%xmm0
+ .byte 102,15,111,138,52,91,0,0 // movdqa 0x5b34(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,72,91,0,0 // mulps 0x5b48(%edx),%xmm1
- .byte 102,15,111,146,88,91,0,0 // movdqa 0x5b58(%edx),%xmm2
+ .byte 15,89,138,68,91,0,0 // mulps 0x5b44(%edx),%xmm1
+ .byte 102,15,111,146,84,91,0,0 // movdqa 0x5b54(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,104,91,0,0 // mulps 0x5b68(%edx),%xmm2
- .byte 102,15,219,154,120,91,0,0 // pand 0x5b78(%edx),%xmm3
+ .byte 15,89,146,100,91,0,0 // mulps 0x5b64(%edx),%xmm2
+ .byte 102,15,219,154,116,91,0,0 // pand 0x5b74(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,136,91,0,0 // mulps 0x5b88(%edx),%xmm3
+ .byte 15,89,154,132,91,0,0 // mulps 0x5b84(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -72822,22 +72834,22 @@ _sk_load_4444_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 44ab <_sk_load_4444_sse2+0xd1>
+ .byte 116,46 // je 448f <_sk_load_4444_sse2+0xd1>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4499 <_sk_load_4444_sse2+0xbf>
+ .byte 116,19 // je 447d <_sk_load_4444_sse2+0xbf>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 440e <_sk_load_4444_sse2+0x34>
+ .byte 117,131 // jne 43f2 <_sk_load_4444_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,99,255,255,255 // jmp 440e <_sk_load_4444_sse2+0x34>
+ .byte 233,99,255,255,255 // jmp 43f2 <_sk_load_4444_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,86,255,255,255 // jmp 440e <_sk_load_4444_sse2+0x34>
+ .byte 233,86,255,255,255 // jmp 43f2 <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -72849,7 +72861,7 @@ _sk_load_4444_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 44c6 <_sk_load_4444_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 44aa <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72861,27 +72873,27 @@ _sk_load_4444_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 4567 <_sk_load_4444_dst_sse2+0xaf>
+ .byte 15,133,128,0,0,0 // jne 454b <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,186,90,0,0 // movdqa 0x5aba(%edx),%xmm5
+ .byte 102,15,111,170,182,90,0,0 // movdqa 0x5ab6(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,202,90,0,0 // mulps 0x5aca(%edx),%xmm5
+ .byte 15,89,170,198,90,0,0 // mulps 0x5ac6(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,218,90,0,0 // movdqa 0x5ada(%edx),%xmm5
+ .byte 102,15,111,170,214,90,0,0 // movdqa 0x5ad6(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,234,90,0,0 // mulps 0x5aea(%edx),%xmm5
+ .byte 15,89,170,230,90,0,0 // mulps 0x5ae6(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,250,90,0,0 // movdqa 0x5afa(%edx),%xmm5
+ .byte 102,15,111,170,246,90,0,0 // movdqa 0x5af6(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,10,91,0,0 // mulps 0x5b0a(%edx),%xmm5
+ .byte 15,89,170,6,91,0,0 // mulps 0x5b06(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,26,91,0,0 // pand 0x5b1a(%edx),%xmm4
+ .byte 102,15,219,162,22,91,0,0 // pand 0x5b16(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,42,91,0,0 // mulps 0x5b2a(%edx),%xmm4
+ .byte 15,89,162,38,91,0,0 // mulps 0x5b26(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -72896,22 +72908,22 @@ _sk_load_4444_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 45a1 <_sk_load_4444_dst_sse2+0xe9>
+ .byte 116,50 // je 4585 <_sk_load_4444_dst_sse2+0xe9>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 458f <_sk_load_4444_dst_sse2+0xd7>
+ .byte 116,23 // je 4573 <_sk_load_4444_dst_sse2+0xd7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 44f0 <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,133,111,255,255,255 // jne 44d4 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,79,255,255,255 // jmp 44f0 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,79,255,255,255 // jmp 44d4 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,66,255,255,255 // jmp 44f0 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,66,255,255,255 // jmp 44d4 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -72947,25 +72959,25 @@ _sk_gather_4444_sse2:
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
.byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 462e <_sk_gather_4444_sse2+0x80>
+ .byte 232,0,0,0,0 // call 4612 <_sk_gather_4444_sse2+0x80>
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,210,89,0,0 // movdqa 0x59d2(%ecx),%xmm0
+ .byte 102,15,111,129,206,89,0,0 // movdqa 0x59ce(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,226,89,0,0 // mulps 0x59e2(%ecx),%xmm0
- .byte 102,15,111,137,242,89,0,0 // movdqa 0x59f2(%ecx),%xmm1
+ .byte 15,89,129,222,89,0,0 // mulps 0x59de(%ecx),%xmm0
+ .byte 102,15,111,137,238,89,0,0 // movdqa 0x59ee(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,2,90,0,0 // mulps 0x5a02(%ecx),%xmm1
- .byte 102,15,111,145,18,90,0,0 // movdqa 0x5a12(%ecx),%xmm2
+ .byte 15,89,137,254,89,0,0 // mulps 0x59fe(%ecx),%xmm1
+ .byte 102,15,111,145,14,90,0,0 // movdqa 0x5a0e(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,34,90,0,0 // mulps 0x5a22(%ecx),%xmm2
- .byte 102,15,219,153,50,90,0,0 // pand 0x5a32(%ecx),%xmm3
+ .byte 15,89,145,30,90,0,0 // mulps 0x5a1e(%ecx),%xmm2
+ .byte 102,15,219,153,46,90,0,0 // pand 0x5a2e(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,66,90,0,0 // mulps 0x5a42(%ecx),%xmm3
+ .byte 15,89,153,62,90,0,0 // mulps 0x5a3e(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -72985,7 +72997,7 @@ _sk_store_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 46ab <_sk_store_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 468f <_sk_store_4444_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -72995,7 +73007,7 @@ _sk_store_4444_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,213,89,0,0 // movaps 0x59d5(%edi),%xmm4
+ .byte 15,40,167,209,89,0,0 // movaps 0x59d1(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -73021,7 +73033,7 @@ _sk_store_4444_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 474e <_sk_store_4444_sse2+0xb1>
+ .byte 117,34 // jne 4732 <_sk_store_4444_sse2+0xb1>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -73041,20 +73053,20 @@ _sk_store_4444_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4784 <_sk_store_4444_sse2+0xe7>
+ .byte 116,37 // je 4768 <_sk_store_4444_sse2+0xe7>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4773 <_sk_store_4444_sse2+0xd6>
+ .byte 116,15 // je 4757 <_sk_store_4444_sse2+0xd6>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 473b <_sk_store_4444_sse2+0x9e>
+ .byte 117,210 // jne 471f <_sk_store_4444_sse2+0x9e>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 473b <_sk_store_4444_sse2+0x9e>
+ .byte 235,183 // jmp 471f <_sk_store_4444_sse2+0x9e>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 473b <_sk_store_4444_sse2+0x9e>
+ .byte 235,173 // jmp 471f <_sk_store_4444_sse2+0x9e>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -73066,7 +73078,7 @@ _sk_load_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 479c <_sk_load_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4780 <_sk_load_8888_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73078,13 +73090,13 @@ _sk_load_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4820 <_sk_load_8888_sse2+0x92>
+ .byte 117,102 // jne 4804 <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,244,88,0,0 // movdqa 0x58f4(%edx),%xmm2
+ .byte 102,15,111,146,240,88,0,0 // movdqa 0x58f0(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,4,89,0,0 // movaps 0x5904(%edx),%xmm4
+ .byte 15,40,162,0,89,0,0 // movaps 0x5900(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -73112,18 +73124,18 @@ _sk_load_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 484b <_sk_load_8888_sse2+0xbd>
+ .byte 116,35 // je 482f <_sk_load_8888_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4841 <_sk_load_8888_sse2+0xb3>
+ .byte 116,16 // je 4825 <_sk_load_8888_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 47bf <_sk_load_8888_sse2+0x31>
+ .byte 117,137 // jne 47a3 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 47bf <_sk_load_8888_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 47a3 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 47bf <_sk_load_8888_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 47a3 <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -73135,7 +73147,7 @@ _sk_load_8888_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4863 <_sk_load_8888_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4847 <_sk_load_8888_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73147,13 +73159,13 @@ _sk_load_8888_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 48f7 <_sk_load_8888_dst_sse2+0xa2>
+ .byte 117,118 // jne 48db <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,77,88,0,0 // movdqa 0x584d(%edx),%xmm5
+ .byte 102,15,111,170,73,88,0,0 // movdqa 0x5849(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,93,88,0,0 // movaps 0x585d(%edx),%xmm7
+ .byte 15,40,186,89,88,0,0 // movaps 0x5859(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73185,18 +73197,18 @@ _sk_load_8888_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4926 <_sk_load_8888_dst_sse2+0xd1>
+ .byte 116,39 // je 490a <_sk_load_8888_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 491c <_sk_load_8888_dst_sse2+0xc7>
+ .byte 116,20 // je 4900 <_sk_load_8888_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4886 <_sk_load_8888_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 486a <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4886 <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 486a <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4886 <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 486a <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -73230,16 +73242,16 @@ _sk_gather_8888_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
- .byte 232,0,0,0,0 // call 49a6 <_sk_gather_8888_sse2+0x76>
+ .byte 232,0,0,0,0 // call 498a <_sk_gather_8888_sse2+0x76>
.byte 89 // pop %ecx
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,216 // punpckldq %xmm0,%xmm3
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,111,145,42,87,0,0 // movdqa 0x572a(%ecx),%xmm2
+ .byte 102,15,111,145,38,87,0,0 // movdqa 0x5726(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,58,87,0,0 // movaps 0x573a(%ecx),%xmm4
+ .byte 15,40,161,54,87,0,0 // movaps 0x5736(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -73273,7 +73285,7 @@ _sk_store_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4a21 <_sk_store_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4a05 <_sk_store_8888_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73283,7 +73295,7 @@ _sk_store_8888_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,207,86,0,0 // movaps 0x56cf(%edi),%xmm4
+ .byte 15,40,167,203,86,0,0 // movaps 0x56cb(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -73303,7 +73315,7 @@ _sk_store_8888_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 4a9e <_sk_store_8888_sse2+0x8b>
+ .byte 117,24 // jne 4a82 <_sk_store_8888_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -73318,17 +73330,17 @@ _sk_store_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 4ac2 <_sk_store_8888_sse2+0xaf>
+ .byte 116,28 // je 4aa6 <_sk_store_8888_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4abb <_sk_store_8888_sse2+0xa8>
+ .byte 116,16 // je 4a9f <_sk_store_8888_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 4a8b <_sk_store_8888_sse2+0x78>
+ .byte 117,219 // jne 4a6f <_sk_store_8888_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 4a8b <_sk_store_8888_sse2+0x78>
+ .byte 235,201 // jmp 4a6f <_sk_store_8888_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 4a8b <_sk_store_8888_sse2+0x78>
+ .byte 235,194 // jmp 4a6f <_sk_store_8888_sse2+0x78>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -73340,7 +73352,7 @@ _sk_load_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4ad7 <_sk_load_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4abb <_sk_load_bgra_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73352,13 +73364,13 @@ _sk_load_bgra_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4b5b <_sk_load_bgra_sse2+0x92>
+ .byte 117,102 // jne 4b3f <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,41,86,0,0 // movdqa 0x5629(%edx),%xmm0
+ .byte 102,15,111,130,37,86,0,0 // movdqa 0x5625(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,57,86,0,0 // movaps 0x5639(%edx),%xmm4
+ .byte 15,40,162,53,86,0,0 // movaps 0x5635(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -73386,18 +73398,18 @@ _sk_load_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4b86 <_sk_load_bgra_sse2+0xbd>
+ .byte 116,35 // je 4b6a <_sk_load_bgra_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4b7c <_sk_load_bgra_sse2+0xb3>
+ .byte 116,16 // je 4b60 <_sk_load_bgra_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4afa <_sk_load_bgra_sse2+0x31>
+ .byte 117,137 // jne 4ade <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4afa <_sk_load_bgra_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4ade <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4afa <_sk_load_bgra_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4ade <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -73409,7 +73421,7 @@ _sk_load_bgra_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4b9e <_sk_load_bgra_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4b82 <_sk_load_bgra_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73421,13 +73433,13 @@ _sk_load_bgra_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4c32 <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 117,118 // jne 4c16 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,130,85,0,0 // movdqa 0x5582(%edx),%xmm5
+ .byte 102,15,111,170,126,85,0,0 // movdqa 0x557e(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,146,85,0,0 // movaps 0x5592(%edx),%xmm7
+ .byte 15,40,186,142,85,0,0 // movaps 0x558e(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73459,18 +73471,18 @@ _sk_load_bgra_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4c61 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 116,39 // je 4c45 <_sk_load_bgra_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 4c57 <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 116,20 // je 4c3b <_sk_load_bgra_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4bc1 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 4ba5 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4bc1 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 4ba5 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4bc1 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 4ba5 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -73504,16 +73516,16 @@ _sk_gather_bgra_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
- .byte 232,0,0,0,0 // call 4ce1 <_sk_gather_bgra_sse2+0x76>
+ .byte 232,0,0,0,0 // call 4cc5 <_sk_gather_bgra_sse2+0x76>
.byte 89 // pop %ecx
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,216 // punpckldq %xmm0,%xmm3
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,111,129,95,84,0,0 // movdqa 0x545f(%ecx),%xmm0
+ .byte 102,15,111,129,91,84,0,0 // movdqa 0x545b(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,111,84,0,0 // movaps 0x546f(%ecx),%xmm4
+ .byte 15,40,161,107,84,0,0 // movaps 0x546b(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -73547,7 +73559,7 @@ _sk_store_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4d5c <_sk_store_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4d40 <_sk_store_bgra_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73557,7 +73569,7 @@ _sk_store_bgra_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,4,84,0,0 // movaps 0x5404(%edi),%xmm4
+ .byte 15,40,167,0,84,0,0 // movaps 0x5400(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -73577,7 +73589,7 @@ _sk_store_bgra_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 4dd9 <_sk_store_bgra_sse2+0x8b>
+ .byte 117,24 // jne 4dbd <_sk_store_bgra_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -73592,17 +73604,17 @@ _sk_store_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 4dfd <_sk_store_bgra_sse2+0xaf>
+ .byte 116,28 // je 4de1 <_sk_store_bgra_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4df6 <_sk_store_bgra_sse2+0xa8>
+ .byte 116,16 // je 4dda <_sk_store_bgra_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 4dc6 <_sk_store_bgra_sse2+0x78>
+ .byte 117,219 // jne 4daa <_sk_store_bgra_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 4dc6 <_sk_store_bgra_sse2+0x78>
+ .byte 235,201 // jmp 4daa <_sk_store_bgra_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 4dc6 <_sk_store_bgra_sse2+0x78>
+ .byte 235,194 // jmp 4daa <_sk_store_bgra_sse2+0x78>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -73614,7 +73626,7 @@ _sk_load_f16_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 4e12 <_sk_load_f16_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4df6 <_sk_load_f16_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73626,7 +73638,7 @@ _sk_load_f16_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,160,1,0,0 // jne 4fd4 <_sk_load_f16_sse2+0x1d0>
+ .byte 15,133,160,1,0,0 // jne 4fb8 <_sk_load_f16_sse2+0x1d0>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -73654,7 +73666,7 @@ _sk_load_f16_sse2:
.byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,111,154,94,83,0,0 // movdqa 0x535e(%edx),%xmm3
+ .byte 102,15,111,154,90,83,0,0 // movdqa 0x535a(%edx),%xmm3
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -73687,15 +73699,15 @@ _sk_load_f16_sse2:
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,111,154,110,83,0,0 // movdqa 0x536e(%edx),%xmm3
+ .byte 102,15,111,154,106,83,0,0 // movdqa 0x536a(%edx),%xmm3
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,254,243 // paddd %xmm3,%xmm6
.byte 102,15,254,235 // paddd %xmm3,%xmm5
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,154,126,83,0,0 // movdqa 0x537e(%edx),%xmm3
+ .byte 102,15,111,154,122,83,0,0 // movdqa 0x537a(%edx),%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,239,203 // pxor %xmm3,%xmm1
- .byte 102,15,111,154,142,83,0,0 // movdqa 0x538e(%edx),%xmm3
+ .byte 102,15,111,154,138,83,0,0 // movdqa 0x538a(%edx),%xmm3
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4
.byte 102,15,223,226 // pandn %xmm2,%xmm4
@@ -73727,12 +73739,12 @@ _sk_load_f16_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,89,254,255,255 // je 4e3f <_sk_load_f16_sse2+0x3b>
+ .byte 15,132,89,254,255,255 // je 4e23 <_sk_load_f16_sse2+0x3b>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,74,254,255,255 // jb 4e3f <_sk_load_f16_sse2+0x3b>
+ .byte 15,130,74,254,255,255 // jb 4e23 <_sk_load_f16_sse2+0x3b>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,63,254,255,255 // jmp 4e3f <_sk_load_f16_sse2+0x3b>
+ .byte 233,63,254,255,255 // jmp 4e23 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -73748,7 +73760,7 @@ _sk_load_f16_dst_sse2:
.byte 15,41,149,120,255,255,255 // movaps %xmm2,-0x88(%ebp)
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
.byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 5028 <_sk_load_f16_dst_sse2+0x28>
+ .byte 232,0,0,0,0 // call 500c <_sk_load_f16_dst_sse2+0x28>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -73760,7 +73772,7 @@ _sk_load_f16_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,206,1,0,0 // jne 5218 <_sk_load_f16_dst_sse2+0x218>
+ .byte 15,133,206,1,0,0 // jne 51fc <_sk_load_f16_dst_sse2+0x218>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -73788,7 +73800,7 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 102,15,111,154,136,81,0,0 // movdqa 0x5188(%edx),%xmm3
+ .byte 102,15,111,154,132,81,0,0 // movdqa 0x5184(%edx),%xmm3
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 102,15,239,226 // pxor %xmm2,%xmm4
@@ -73796,13 +73808,13 @@ _sk_load_f16_dst_sse2:
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,168,81,0,0 // movdqa 0x51a8(%edx),%xmm2
+ .byte 102,15,111,146,164,81,0,0 // movdqa 0x51a4(%edx),%xmm2
.byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
- .byte 102,15,111,178,184,81,0,0 // movdqa 0x51b8(%edx),%xmm6
+ .byte 102,15,111,178,180,81,0,0 // movdqa 0x51b4(%edx),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,102,252 // pcmpgtd %xmm4,%xmm7
- .byte 102,15,111,146,152,81,0,0 // movdqa 0x5198(%edx),%xmm2
+ .byte 102,15,111,146,148,81,0,0 // movdqa 0x5194(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,249 // pandn %xmm1,%xmm7
@@ -73870,12 +73882,12 @@ _sk_load_f16_dst_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,43,254,255,255 // je 5055 <_sk_load_f16_dst_sse2+0x55>
+ .byte 15,132,43,254,255,255 // je 5039 <_sk_load_f16_dst_sse2+0x55>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,28,254,255,255 // jb 5055 <_sk_load_f16_dst_sse2+0x55>
+ .byte 15,130,28,254,255,255 // jb 5039 <_sk_load_f16_dst_sse2+0x55>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,17,254,255,255 // jmp 5055 <_sk_load_f16_dst_sse2+0x55>
+ .byte 233,17,254,255,255 // jmp 5039 <_sk_load_f16_dst_sse2+0x55>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -73913,7 +73925,7 @@ _sk_gather_f16_sse2:
.byte 102,15,126,194 // movd %xmm0,%edx
.byte 102,15,110,68,209,4 // movd 0x4(%ecx,%edx,8),%xmm0
.byte 102,15,110,60,209 // movd (%ecx,%edx,8),%xmm7
- .byte 232,0,0,0,0 // call 52d2 <_sk_gather_f16_sse2+0x8e>
+ .byte 232,0,0,0,0 // call 52b6 <_sk_gather_f16_sse2+0x8e>
.byte 89 // pop %ecx
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,227 // punpckldq %xmm3,%xmm4
@@ -73946,7 +73958,7 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,111,153,30,79,0,0 // movdqa 0x4f1e(%ecx),%xmm3
+ .byte 102,15,111,153,26,79,0,0 // movdqa 0x4f1a(%ecx),%xmm3
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -73979,15 +73991,15 @@ _sk_gather_f16_sse2:
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,111,153,46,79,0,0 // movdqa 0x4f2e(%ecx),%xmm3
+ .byte 102,15,111,153,42,79,0,0 // movdqa 0x4f2a(%ecx),%xmm3
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,254,243 // paddd %xmm3,%xmm6
.byte 102,15,254,235 // paddd %xmm3,%xmm5
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,153,62,79,0,0 // movdqa 0x4f3e(%ecx),%xmm3
+ .byte 102,15,111,153,58,79,0,0 // movdqa 0x4f3a(%ecx),%xmm3
.byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
.byte 102,15,239,203 // pxor %xmm3,%xmm1
- .byte 102,15,111,153,78,79,0,0 // movdqa 0x4f4e(%ecx),%xmm3
+ .byte 102,15,111,153,74,79,0,0 // movdqa 0x4f4a(%ecx),%xmm3
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4
.byte 102,15,223,226 // pandn %xmm2,%xmm4
@@ -74026,20 +74038,20 @@ _sk_store_f16_sse2:
.byte 131,236,80 // sub $0x50,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 5495 <_sk_store_f16_sse2+0x15>
+ .byte 232,0,0,0,0 // call 5479 <_sk_store_f16_sse2+0x15>
.byte 88 // pop %eax
- .byte 102,15,111,176,155,77,0,0 // movdqa 0x4d9b(%eax),%xmm6
+ .byte 102,15,111,176,151,77,0,0 // movdqa 0x4d97(%eax),%xmm6
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,239,234 // pxor %xmm2,%xmm5
- .byte 102,15,111,160,171,77,0,0 // movdqa 0x4dab(%eax),%xmm4
+ .byte 102,15,111,160,167,77,0,0 // movdqa 0x4da7(%eax),%xmm4
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,102,197 // pcmpgtd %xmm5,%xmm0
.byte 102,15,114,213,13 // psrld $0xd,%xmm5
- .byte 102,15,111,184,187,77,0,0 // movdqa 0x4dbb(%eax),%xmm7
+ .byte 102,15,111,184,183,77,0,0 // movdqa 0x4db7(%eax),%xmm7
.byte 102,15,254,215 // paddd %xmm7,%xmm2
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,254,213 // paddd %xmm5,%xmm2
@@ -74101,7 +74113,7 @@ _sk_store_f16_sse2:
.byte 3,55 // add (%edi),%esi
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,53 // jne 5607 <_sk_store_f16_sse2+0x187>
+ .byte 117,53 // jne 55eb <_sk_store_f16_sse2+0x187>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,98,197 // punpckldq %xmm5,%xmm0
.byte 243,15,127,4,214 // movdqu %xmm0,(%esi,%edx,8)
@@ -74124,13 +74136,13 @@ _sk_store_f16_sse2:
.byte 102,15,98,213 // punpckldq %xmm5,%xmm2
.byte 102,15,214,20,214 // movq %xmm2,(%esi,%edx,8)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,208 // je 55e9 <_sk_store_f16_sse2+0x169>
+ .byte 116,208 // je 55cd <_sk_store_f16_sse2+0x169>
.byte 102,15,23,84,214,8 // movhpd %xmm2,0x8(%esi,%edx,8)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,197 // jb 55e9 <_sk_store_f16_sse2+0x169>
+ .byte 114,197 // jb 55cd <_sk_store_f16_sse2+0x169>
.byte 102,15,106,205 // punpckhdq %xmm5,%xmm1
.byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,185 // jmp 55e9 <_sk_store_f16_sse2+0x169>
+ .byte 235,185 // jmp 55cd <_sk_store_f16_sse2+0x169>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -74153,9 +74165,9 @@ _sk_load_u16_be_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 193,230,2 // shl $0x2,%esi
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 565b <_sk_load_u16_be_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 563f <_sk_load_u16_be_sse2+0x2b>
.byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 576d <_sk_load_u16_be_sse2+0x13d>
+ .byte 15,133,11,1,0,0 // jne 5751 <_sk_load_u16_be_sse2+0x13d>
.byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
.byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -74176,7 +74188,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,5,76,0,0 // movaps 0x4c05(%edx),%xmm4
+ .byte 15,40,162,1,76,0,0 // movaps 0x4c01(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -74226,12 +74238,12 @@ _sk_load_u16_be_sse2:
.byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 566d <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,132,238,254,255,255 // je 5651 <_sk_load_u16_be_sse2+0x3d>
.byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 566d <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,130,223,254,255,255 // jb 5651 <_sk_load_u16_be_sse2+0x3d>
.byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 566d <_sk_load_u16_be_sse2+0x3d>
+ .byte 233,212,254,255,255 // jmp 5651 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -74253,9 +74265,9 @@ _sk_load_rgb_u16_be_sse2:
.byte 3,50 // add (%edx),%esi
.byte 107,25,3 // imul $0x3,(%ecx),%ebx
.byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 57c2 <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 232,0,0,0,0 // call 57a6 <_sk_load_rgb_u16_be_sse2+0x29>
.byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 58b9 <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 15,133,240,0,0,0 // jne 589d <_sk_load_rgb_u16_be_sse2+0x120>
.byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
.byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -74280,7 +74292,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,174,74,0,0 // movaps 0x4aae(%edx),%xmm5
+ .byte 15,40,170,170,74,0,0 // movaps 0x4aaa(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -74306,7 +74318,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,190,74,0,0 // movaps 0x4abe(%edx),%xmm3
+ .byte 15,40,154,186,74,0,0 // movaps 0x4aba(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -74320,20 +74332,20 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 58db <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 117,13 // jne 58bf <_sk_load_rgb_u16_be_sse2+0x142>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 57eb <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,16,255,255,255 // jmp 57cf <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
.byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 5903 <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 114,18 // jb 58e7 <_sk_load_rgb_u16_be_sse2+0x16a>
.byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
.byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 57eb <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,232,254,255,255 // jmp 57cf <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 57eb <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,223,254,255,255 // jmp 57cf <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -74345,9 +74357,9 @@ _sk_store_u16_be_sse2:
.byte 86 // push %esi
.byte 131,236,16 // sub $0x10,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 591d <_sk_store_u16_be_sse2+0x11>
+ .byte 232,0,0,0,0 // call 5901 <_sk_store_u16_be_sse2+0x11>
.byte 88 // pop %eax
- .byte 15,40,176,115,73,0,0 // movaps 0x4973(%eax),%xmm6
+ .byte 15,40,176,111,73,0,0 // movaps 0x496f(%eax),%xmm6
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
@@ -74400,7 +74412,7 @@ _sk_store_u16_be_sse2:
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,226,2 // shl $0x2,%edx
.byte 133,255 // test %edi,%edi
- .byte 117,45 // jne 5a1f <_sk_store_u16_be_sse2+0x113>
+ .byte 117,45 // jne 5a03 <_sk_store_u16_be_sse2+0x113>
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,98,221 // punpckldq %xmm5,%xmm3
.byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2)
@@ -74421,13 +74433,13 @@ _sk_store_u16_be_sse2:
.byte 102,15,98,245 // punpckldq %xmm5,%xmm6
.byte 102,15,214,52,86 // movq %xmm6,(%esi,%edx,2)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,216 // je 5a09 <_sk_store_u16_be_sse2+0xfd>
+ .byte 116,216 // je 59ed <_sk_store_u16_be_sse2+0xfd>
.byte 102,15,23,116,86,8 // movhpd %xmm6,0x8(%esi,%edx,2)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,205 // jb 5a09 <_sk_store_u16_be_sse2+0xfd>
+ .byte 114,205 // jb 59ed <_sk_store_u16_be_sse2+0xfd>
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2)
- .byte 235,193 // jmp 5a09 <_sk_store_u16_be_sse2+0xfd>
+ .byte 235,193 // jmp 59ed <_sk_store_u16_be_sse2+0xfd>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -74450,7 +74462,7 @@ _sk_load_f32_sse2:
.byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 5abf <_sk_load_f32_sse2+0x77>
+ .byte 117,71 // jne 5aa3 <_sk_load_f32_sse2+0x77>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
@@ -74478,17 +74490,17 @@ _sk_load_f32_sse2:
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5acf <_sk_load_f32_sse2+0x87>
+ .byte 117,8 // jne 5ab3 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 5a87 <_sk_load_f32_sse2+0x3f>
+ .byte 235,184 // jmp 5a6b <_sk_load_f32_sse2+0x3f>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5ae0 <_sk_load_f32_sse2+0x98>
+ .byte 114,7 // jb 5ac4 <_sk_load_f32_sse2+0x98>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 5a87 <_sk_load_f32_sse2+0x3f>
+ .byte 235,167 // jmp 5a6b <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 5a87 <_sk_load_f32_sse2+0x3f>
+ .byte 235,162 // jmp 5a6b <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -74514,7 +74526,7 @@ _sk_load_f32_dst_sse2:
.byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 5b81 <_sk_load_f32_dst_sse2+0x9c>
+ .byte 117,97 // jne 5b65 <_sk_load_f32_dst_sse2+0x9c>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
@@ -74548,17 +74560,17 @@ _sk_load_f32_dst_sse2:
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5b91 <_sk_load_f32_dst_sse2+0xac>
+ .byte 117,8 // jne 5b75 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 5b2f <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,158 // jmp 5b13 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5ba2 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 114,7 // jb 5b86 <_sk_load_f32_dst_sse2+0xbd>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 5b2f <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,141 // jmp 5b13 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 5b2f <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,136 // jmp 5b13 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -74596,7 +74608,7 @@ _sk_store_f32_sse2:
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 5c2d <_sk_store_f32_sse2+0x86>
+ .byte 117,40 // jne 5c11 <_sk_store_f32_sse2+0x86>
.byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
@@ -74613,12 +74625,12 @@ _sk_store_f32_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 5c1a <_sk_store_f32_sse2+0x73>
+ .byte 116,232 // je 5bfe <_sk_store_f32_sse2+0x73>
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 5c1a <_sk_store_f32_sse2+0x73>
+ .byte 114,222 // jb 5bfe <_sk_store_f32_sse2+0x73>
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 5c1a <_sk_store_f32_sse2+0x73>
+ .byte 235,214 // jmp 5bfe <_sk_store_f32_sse2+0x73>
HIDDEN _sk_clamp_x_sse2
.globl _sk_clamp_x_sse2
@@ -74679,7 +74691,7 @@ _sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5cc1 <_sk_repeat_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5ca5 <_sk_repeat_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -74690,7 +74702,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,223,69,0,0 // andps 0x45df(%ecx),%xmm6
+ .byte 15,84,177,219,69,0,0 // andps 0x45db(%ecx),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -74717,7 +74729,7 @@ _sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5d27 <_sk_repeat_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5d0b <_sk_repeat_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -74728,7 +74740,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,137,69,0,0 // andps 0x4589(%ecx),%xmm6
+ .byte 15,84,177,133,69,0,0 // andps 0x4585(%ecx),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -74755,7 +74767,7 @@ _sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5d8d <_sk_mirror_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5d71 <_sk_mirror_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -74764,13 +74776,13 @@ _sk_mirror_x_sse2:
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 243,15,89,177,179,74,0,0 // mulss 0x4ab3(%ecx),%xmm6
+ .byte 243,15,89,177,175,74,0,0 // mulss 0x4aaf(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,51,69,0,0 // andps 0x4533(%ecx),%xmm6
+ .byte 15,84,177,47,69,0,0 // andps 0x452f(%ecx),%xmm6
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 243,15,88,237 // addss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -74801,7 +74813,7 @@ _sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5e12 <_sk_mirror_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5df6 <_sk_mirror_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -74810,13 +74822,13 @@ _sk_mirror_y_sse2:
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
- .byte 243,15,89,177,50,74,0,0 // mulss 0x4a32(%ecx),%xmm6
+ .byte 243,15,89,177,46,74,0,0 // mulss 0x4a2e(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,190,68,0,0 // andps 0x44be(%ecx),%xmm6
+ .byte 15,84,177,186,68,0,0 // andps 0x44ba(%ecx),%xmm6
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 243,15,88,237 // addss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -74847,12 +74859,12 @@ _sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5e97 <_sk_clamp_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5e7b <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,73,68,0,0 // minps 0x4449(%eax),%xmm4
+ .byte 15,93,160,69,68,0,0 // minps 0x4445(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -74870,14 +74882,14 @@ _sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5ec7 <_sk_repeat_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5eab <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,84,168,41,68,0,0 // andps 0x4429(%eax),%xmm5
+ .byte 15,84,168,37,68,0,0 // andps 0x4425(%eax),%xmm5
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
@@ -74896,17 +74908,17 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5f02 <_sk_mirror_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5ee6 <_sk_mirror_x_1_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,40,161,254,67,0,0 // movaps 0x43fe(%ecx),%xmm4
+ .byte 15,40,161,250,67,0,0 // movaps 0x43fa(%ecx),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,169,14,68,0,0 // movaps 0x440e(%ecx),%xmm5
+ .byte 15,40,169,10,68,0,0 // movaps 0x440a(%ecx),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,169,30,68,0,0 // andps 0x441e(%ecx),%xmm5
+ .byte 15,84,169,26,68,0,0 // andps 0x441a(%ecx),%xmm5
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -74931,13 +74943,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 5f60 <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5f44 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,208,67,0,0 // mulps 0x43d0(%eax),%xmm0
- .byte 15,89,136,224,67,0,0 // mulps 0x43e0(%eax),%xmm1
+ .byte 15,89,128,204,67,0,0 // mulps 0x43cc(%eax),%xmm0
+ .byte 15,89,136,220,67,0,0 // mulps 0x43dc(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,240,67,0,0 // mulps 0x43f0(%eax),%xmm3
+ .byte 15,89,152,236,67,0,0 // mulps 0x43ec(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -75327,7 +75339,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 63fd <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 63e1 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,65,4 // lea 0x4(%ecx),%eax
@@ -75338,12 +75350,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,99,63,0,0 // movdqa 0x3f63(%edx),%xmm2
+ .byte 102,15,111,146,95,63,0,0 // movdqa 0x3f5f(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,115,63,0,0 // por 0x3f73(%edx),%xmm2
+ .byte 102,15,235,146,111,63,0,0 // por 0x3f6f(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,131,63,0,0 // por 0x3f83(%edx),%xmm1
- .byte 15,88,138,147,63,0,0 // addps 0x3f93(%edx),%xmm1
+ .byte 102,15,235,138,127,63,0,0 // por 0x3f7f(%edx),%xmm1
+ .byte 15,88,138,143,63,0,0 // addps 0x3f8f(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -75450,18 +75462,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 65b3 <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6597 <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,237,61,0,0 // movaps 0x3ded(%eax),%xmm0
+ .byte 15,40,128,233,61,0,0 // movaps 0x3de9(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,253,61,0,0 // addps 0x3dfd(%eax),%xmm0
+ .byte 15,88,128,249,61,0,0 // addps 0x3df9(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,13,62,0,0 // addps 0x3e0d(%eax),%xmm0
+ .byte 15,88,128,9,62,0,0 // addps 0x3e09(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,29,62,0,0 // addps 0x3e1d(%eax),%xmm0
+ .byte 15,88,128,25,62,0,0 // addps 0x3e19(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,45,62,0,0 // addps 0x3e2d(%eax),%xmm0
+ .byte 15,88,128,41,62,0,0 // addps 0x3e29(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -75484,7 +75496,7 @@ _sk_gradient_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
- .byte 232,0,0,0,0 // call 660e <_sk_gradient_sse2+0xe>
+ .byte 232,0,0,0,0 // call 65f2 <_sk_gradient_sse2+0xe>
.byte 95 // pop %edi
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
@@ -75493,12 +75505,12 @@ _sk_gradient_sse2:
.byte 139,17 // mov (%ecx),%edx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,250,2 // cmp $0x2,%edx
- .byte 114,43 // jb 6650 <_sk_gradient_sse2+0x50>
+ .byte 114,43 // jb 6634 <_sk_gradient_sse2+0x50>
.byte 139,113,36 // mov 0x24(%ecx),%esi
.byte 74 // dec %edx
.byte 131,198,4 // add $0x4,%esi
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,40,151,226,61,0,0 // movaps 0x3de2(%edi),%xmm2
+ .byte 15,40,151,222,61,0,0 // movaps 0x3dde(%edi),%xmm2
.byte 243,15,16,30 // movss (%esi),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
@@ -75506,7 +75518,7 @@ _sk_gradient_sse2:
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 74 // dec %edx
- .byte 117,231 // jne 6637 <_sk_gradient_sse2+0x37>
+ .byte 117,231 // jne 661b <_sk_gradient_sse2+0x37>
.byte 102,15,126,202 // movd %xmm1,%edx
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,126,214 // movd %xmm2,%esi
@@ -75658,7 +75670,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 684a <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 682e <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -75673,30 +75685,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,182,59,0,0 // movaps 0x3bb6(%eax),%xmm0
+ .byte 15,40,128,178,59,0,0 // movaps 0x3bb2(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,198,59,0,0 // addps 0x3bc6(%eax),%xmm0
+ .byte 15,88,128,194,59,0,0 // addps 0x3bc2(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,214,59,0,0 // addps 0x3bd6(%eax),%xmm0
+ .byte 15,88,128,210,59,0,0 // addps 0x3bd2(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,230,59,0,0 // addps 0x3be6(%eax),%xmm0
+ .byte 15,88,128,226,59,0,0 // addps 0x3be2(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,246,59,0,0 // movaps 0x3bf6(%eax),%xmm6
+ .byte 15,40,176,242,59,0,0 // movaps 0x3bf2(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,6,60,0,0 // movaps 0x3c06(%eax),%xmm0
+ .byte 15,40,128,2,60,0,0 // movaps 0x3c02(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,22,60,0,0 // movaps 0x3c16(%eax),%xmm5
+ .byte 15,40,168,18,60,0,0 // movaps 0x3c12(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -75757,15 +75769,15 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6967 <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
+ .byte 232,0,0,0,0 // call 694b <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,9,59,0,0 // mulps 0x3b09(%edx),%xmm4
- .byte 15,89,130,25,59,0,0 // mulps 0x3b19(%edx),%xmm0
+ .byte 15,89,162,5,59,0,0 // mulps 0x3b05(%edx),%xmm4
+ .byte 15,89,130,21,59,0,0 // mulps 0x3b15(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -75773,11 +75785,11 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,41,59,0,0 // xorps 0x3b29(%edx),%xmm4
+ .byte 15,87,162,37,59,0,0 // xorps 0x3b25(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,57,59,0,0 // mulps 0x3b39(%edx),%xmm5
+ .byte 15,89,170,53,59,0,0 // mulps 0x3b35(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,95,196 // maxps %xmm4,%xmm0
@@ -75808,15 +75820,15 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6a05 <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
+ .byte 232,0,0,0,0 // call 69e9 <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,171,58,0,0 // mulps 0x3aab(%edx),%xmm4
- .byte 15,89,130,187,58,0,0 // mulps 0x3abb(%edx),%xmm0
+ .byte 15,89,162,167,58,0,0 // mulps 0x3aa7(%edx),%xmm4
+ .byte 15,89,130,183,58,0,0 // mulps 0x3ab7(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -75824,11 +75836,11 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,203,58,0,0 // xorps 0x3acb(%edx),%xmm4
+ .byte 15,87,162,199,58,0,0 // xorps 0x3ac7(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,219,58,0,0 // mulps 0x3adb(%edx),%xmm5
+ .byte 15,89,170,215,58,0,0 // mulps 0x3ad7(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
@@ -75848,7 +75860,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6a7d <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6a61 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -75857,7 +75869,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,115,58,0,0 // mulps 0x3a73(%ecx),%xmm5
+ .byte 15,89,169,111,58,0,0 // mulps 0x3a6f(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -75865,7 +75877,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,131,58,0,0 // xorps 0x3a83(%ecx),%xmm0
+ .byte 15,87,129,127,58,0,0 // xorps 0x3a7f(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -75939,16 +75951,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6b5a <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6b3e <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,182,57,0,0 // movaps 0x39b6(%eax),%xmm4
+ .byte 15,40,160,178,57,0,0 // movaps 0x39b2(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,198,57,0,0 // movaps 0x39c6(%eax),%xmm2
+ .byte 15,40,144,194,57,0,0 // movaps 0x39c2(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -76023,15 +76035,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6c3c <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6c20 <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,244,56,0,0 // addps 0x38f4(%eax),%xmm0
- .byte 15,40,168,4,57,0,0 // movaps 0x3904(%eax),%xmm5
+ .byte 15,88,128,240,56,0,0 // addps 0x38f0(%eax),%xmm0
+ .byte 15,40,168,0,57,0,0 // movaps 0x3900(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -76052,14 +76064,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6c7f <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6c63 <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,209,56,0,0 // addps 0x38d1(%eax),%xmm0
+ .byte 15,88,128,205,56,0,0 // addps 0x38cd(%eax),%xmm0
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -76079,15 +76091,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6cb8 <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6c9c <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,168,56,0,0 // addps 0x38a8(%eax),%xmm1
- .byte 15,40,168,184,56,0,0 // movaps 0x38b8(%eax),%xmm5
+ .byte 15,88,136,164,56,0,0 // addps 0x38a4(%eax),%xmm1
+ .byte 15,40,168,180,56,0,0 // movaps 0x38b4(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -76108,14 +76120,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6cfc <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ce0 <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,132,56,0,0 // addps 0x3884(%eax),%xmm1
+ .byte 15,88,136,128,56,0,0 // addps 0x3880(%eax),%xmm1
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -76135,20 +76147,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6d36 <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6d1a <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,90,56,0,0 // addps 0x385a(%eax),%xmm0
- .byte 15,40,168,106,56,0,0 // movaps 0x386a(%eax),%xmm5
+ .byte 15,88,128,86,56,0,0 // addps 0x3856(%eax),%xmm0
+ .byte 15,40,168,102,56,0,0 // movaps 0x3866(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,122,56,0,0 // mulps 0x387a(%eax),%xmm5
- .byte 15,88,168,138,56,0,0 // addps 0x388a(%eax),%xmm5
+ .byte 15,89,168,118,56,0,0 // mulps 0x3876(%eax),%xmm5
+ .byte 15,88,168,134,56,0,0 // addps 0x3886(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -76169,23 +76181,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6d90 <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6d74 <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,64,56,0,0 // addps 0x3840(%eax),%xmm0
- .byte 15,40,168,80,56,0,0 // movaps 0x3850(%eax),%xmm5
+ .byte 15,88,128,60,56,0,0 // addps 0x383c(%eax),%xmm0
+ .byte 15,40,168,76,56,0,0 // movaps 0x384c(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,96,56,0,0 // movaps 0x3860(%eax),%xmm4
+ .byte 15,40,160,92,56,0,0 // movaps 0x385c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,112,56,0,0 // addps 0x3870(%eax),%xmm4
+ .byte 15,88,160,108,56,0,0 // addps 0x386c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,128,56,0,0 // addps 0x3880(%eax),%xmm4
+ .byte 15,88,160,124,56,0,0 // addps 0x387c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,144,56,0,0 // addps 0x3890(%eax),%xmm4
+ .byte 15,88,160,140,56,0,0 // addps 0x388c(%eax),%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -76205,22 +76217,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6df8 <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ddc <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,56,56,0,0 // movaps 0x3838(%eax),%xmm4
+ .byte 15,40,160,52,56,0,0 // movaps 0x3834(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,110,64 // movups 0x40(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,72,56,0,0 // movaps 0x3848(%eax),%xmm6
+ .byte 15,40,176,68,56,0,0 // movaps 0x3844(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,88,56,0,0 // addps 0x3858(%eax),%xmm6
+ .byte 15,88,176,84,56,0,0 // addps 0x3854(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,104,56,0,0 // addps 0x3868(%eax),%xmm6
+ .byte 15,88,176,100,56,0,0 // addps 0x3864(%eax),%xmm6
.byte 15,17,182,128,0,0,0 // movups %xmm6,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -76240,18 +76252,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6e55 <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6e39 <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,27,56,0,0 // addps 0x381b(%eax),%xmm0
+ .byte 15,88,128,23,56,0,0 // addps 0x3817(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,43,56,0,0 // mulps 0x382b(%eax),%xmm4
- .byte 15,88,160,59,56,0,0 // addps 0x383b(%eax),%xmm4
+ .byte 15,89,160,39,56,0,0 // mulps 0x3827(%eax),%xmm4
+ .byte 15,88,160,55,56,0,0 // addps 0x3837(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -76272,20 +76284,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6ea5 <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6e89 <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,251,55,0,0 // addps 0x37fb(%eax),%xmm1
- .byte 15,40,168,11,56,0,0 // movaps 0x380b(%eax),%xmm5
+ .byte 15,88,136,247,55,0,0 // addps 0x37f7(%eax),%xmm1
+ .byte 15,40,168,7,56,0,0 // movaps 0x3807(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,27,56,0,0 // mulps 0x381b(%eax),%xmm5
- .byte 15,88,168,43,56,0,0 // addps 0x382b(%eax),%xmm5
+ .byte 15,89,168,23,56,0,0 // mulps 0x3817(%eax),%xmm5
+ .byte 15,88,168,39,56,0,0 // addps 0x3827(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -76306,23 +76318,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f00 <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ee4 <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,224,55,0,0 // addps 0x37e0(%eax),%xmm1
- .byte 15,40,168,240,55,0,0 // movaps 0x37f0(%eax),%xmm5
+ .byte 15,88,136,220,55,0,0 // addps 0x37dc(%eax),%xmm1
+ .byte 15,40,168,236,55,0,0 // movaps 0x37ec(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,0,56,0,0 // movaps 0x3800(%eax),%xmm4
+ .byte 15,40,160,252,55,0,0 // movaps 0x37fc(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,16,56,0,0 // addps 0x3810(%eax),%xmm4
+ .byte 15,88,160,12,56,0,0 // addps 0x380c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,32,56,0,0 // addps 0x3820(%eax),%xmm4
+ .byte 15,88,160,28,56,0,0 // addps 0x381c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,48,56,0,0 // addps 0x3830(%eax),%xmm4
+ .byte 15,88,160,44,56,0,0 // addps 0x382c(%eax),%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -76342,22 +76354,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f69 <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f4d <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,215,55,0,0 // movaps 0x37d7(%eax),%xmm4
+ .byte 15,40,160,211,55,0,0 // movaps 0x37d3(%eax),%xmm4
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,110,96 // movups 0x60(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,231,55,0,0 // movaps 0x37e7(%eax),%xmm6
+ .byte 15,40,176,227,55,0,0 // movaps 0x37e3(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,247,55,0,0 // addps 0x37f7(%eax),%xmm6
+ .byte 15,88,176,243,55,0,0 // addps 0x37f3(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,7,56,0,0 // addps 0x3807(%eax),%xmm6
+ .byte 15,88,176,3,56,0,0 // addps 0x3803(%eax),%xmm6
.byte 15,17,182,160,0,0,0 // movups %xmm6,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -76377,18 +76389,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6fc7 <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6fab <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,185,55,0,0 // addps 0x37b9(%eax),%xmm1
+ .byte 15,88,136,181,55,0,0 // addps 0x37b5(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,201,55,0,0 // mulps 0x37c9(%eax),%xmm4
- .byte 15,88,160,217,55,0,0 // addps 0x37d9(%eax),%xmm4
+ .byte 15,89,160,197,55,0,0 // mulps 0x37c5(%eax),%xmm4
+ .byte 15,88,160,213,55,0,0 // addps 0x37d5(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -76533,7 +76545,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,233 // punpckldq %xmm1,%xmm5
.byte 102,15,127,173,104,255,255,255 // movdqa %xmm5,-0x98(%ebp)
- .byte 232,0,0,0,0 // call 71bb <_sk_clut_3D_sse2+0xff>
+ .byte 232,0,0,0,0 // call 719f <_sk_clut_3D_sse2+0xff>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,232,254,255,255 // movdqa %xmm0,-0x118(%ebp)
@@ -76542,7 +76554,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,254,202 // paddd %xmm2,%xmm1
- .byte 102,15,111,130,5,54,0,0 // movdqa 0x3605(%edx),%xmm0
+ .byte 102,15,111,130,1,54,0,0 // movdqa 0x3601(%edx),%xmm0
.byte 102,15,127,133,88,255,255,255 // movdqa %xmm0,-0xa8(%ebp)
.byte 102,15,112,225,245 // pshufd $0xf5,%xmm1,%xmm4
.byte 102,15,244,200 // pmuludq %xmm0,%xmm1
@@ -76566,7 +76578,7 @@ _sk_clut_3D_sse2:
.byte 15,20,196 // unpcklps %xmm4,%xmm0
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 102,15,111,130,21,54,0,0 // movdqa 0x3615(%edx),%xmm0
+ .byte 102,15,111,130,17,54,0,0 // movdqa 0x3611(%edx),%xmm0
.byte 102,15,127,133,72,255,255,255 // movdqa %xmm0,-0xb8(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,254,224 // paddd %xmm0,%xmm4
@@ -76584,7 +76596,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 15,20,248 // unpcklps %xmm0,%xmm7
- .byte 102,15,111,130,37,54,0,0 // movdqa 0x3625(%edx),%xmm0
+ .byte 102,15,111,130,33,54,0,0 // movdqa 0x3621(%edx),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -76601,7 +76613,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,177 // movss (%ecx,%esi,4),%xmm0
.byte 15,20,232 // unpcklps %xmm0,%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 15,40,130,245,53,0,0 // movaps 0x35f5(%edx),%xmm0
+ .byte 15,40,130,241,53,0,0 // movaps 0x35f1(%edx),%xmm0
.byte 15,88,240 // addps %xmm0,%xmm6
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 15,40,141,56,255,255,255 // movaps -0xc8(%ebp),%xmm1
@@ -77214,7 +77226,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,209 // punpckldq %xmm1,%xmm2
.byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 7d31 <_sk_clut_4D_sse2+0x179>
+ .byte 232,0,0,0,0 // call 7d15 <_sk_clut_4D_sse2+0x179>
.byte 89 // pop %ecx
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,41,165,120,254,255,255 // movaps %xmm4,-0x188(%ebp)
@@ -77227,7 +77239,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,245 // paddd %xmm5,%xmm6
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,206 // paddd %xmm6,%xmm1
- .byte 102,15,111,153,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm3
+ .byte 102,15,111,153,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm3
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
@@ -77250,7 +77262,7 @@ _sk_clut_4D_sse2:
.byte 15,20,218 // unpcklps %xmm2,%xmm3
.byte 15,20,221 // unpcklps %xmm5,%xmm3
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 102,15,111,153,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm3
+ .byte 102,15,111,153,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5
@@ -77268,7 +77280,7 @@ _sk_clut_4D_sse2:
.byte 15,20,215 // unpcklps %xmm7,%xmm2
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 15,41,149,136,254,255,255 // movaps %xmm2,-0x178(%ebp)
- .byte 102,15,254,137,239,42,0,0 // paddd 0x2aef(%ecx),%xmm1
+ .byte 102,15,254,137,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm1
.byte 102,15,112,233,229 // pshufd $0xe5,%xmm1,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
@@ -77284,7 +77296,7 @@ _sk_clut_4D_sse2:
.byte 15,20,207 // unpcklps %xmm7,%xmm1
.byte 15,20,205 // unpcklps %xmm5,%xmm1
.byte 15,41,141,152,254,255,255 // movaps %xmm1,-0x168(%ebp)
- .byte 15,40,185,191,42,0,0 // movaps 0x2abf(%ecx),%xmm7
+ .byte 15,40,185,187,42,0,0 // movaps 0x2abb(%ecx),%xmm7
.byte 15,88,231 // addps %xmm7,%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,40,141,232,254,255,255 // movaps -0x118(%ebp),%xmm1
@@ -77305,7 +77317,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp)
.byte 102,15,254,241 // paddd %xmm1,%xmm6
.byte 102,15,112,254,245 // pshufd $0xf5,%xmm6,%xmm7
- .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1
+ .byte 102,15,111,137,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm1
.byte 102,15,244,241 // pmuludq %xmm1,%xmm6
.byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0
.byte 102,15,244,249 // pmuludq %xmm1,%xmm7
@@ -77342,7 +77354,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5
.byte 15,20,221 // unpcklps %xmm5,%xmm3
.byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 102,15,111,177,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm6
+ .byte 102,15,111,177,235,42,0,0 // movdqa 0x2aeb(%ecx),%xmm6
.byte 102,15,254,198 // paddd %xmm6,%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
@@ -77390,7 +77402,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,129,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm0
+ .byte 102,15,111,129,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm0
.byte 102,15,244,200 // pmuludq %xmm0,%xmm1
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
@@ -77412,7 +77424,7 @@ _sk_clut_4D_sse2:
.byte 15,20,195 // unpcklps %xmm3,%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,111,129,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm0
+ .byte 102,15,111,129,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm0
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
@@ -77448,7 +77460,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,254,69,184 // paddd -0x48(%ebp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1
+ .byte 102,15,111,137,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm1
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
.byte 102,15,244,217 // pmuludq %xmm1,%xmm3
@@ -77484,7 +77496,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 102,15,111,153,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm3
+ .byte 102,15,111,153,235,42,0,0 // movdqa 0x2aeb(%ecx),%xmm3
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -77548,7 +77560,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm2
+ .byte 102,15,111,145,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
@@ -77570,7 +77582,7 @@ _sk_clut_4D_sse2:
.byte 15,20,214 // unpcklps %xmm6,%xmm2
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,145,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm2
+ .byte 102,15,111,145,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm2
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
@@ -77603,7 +77615,7 @@ _sk_clut_4D_sse2:
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,254,109,184 // paddd -0x48(%ebp),%xmm5
.byte 102,15,112,245,245 // pshufd $0xf5,%xmm5,%xmm6
- .byte 102,15,111,129,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm0
+ .byte 102,15,111,129,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm0
.byte 102,15,244,232 // pmuludq %xmm0,%xmm5
.byte 102,15,112,253,232 // pshufd $0xe8,%xmm5,%xmm7
.byte 102,15,244,240 // pmuludq %xmm0,%xmm6
@@ -77639,7 +77651,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2
.byte 15,20,234 // unpcklps %xmm2,%xmm5
.byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 102,15,111,153,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm3
+ .byte 102,15,111,153,235,42,0,0 // movdqa 0x2aeb(%ecx),%xmm3
.byte 102,15,254,251 // paddd %xmm3,%xmm7
.byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
.byte 102,15,126,208 // movd %xmm2,%eax
@@ -77673,7 +77685,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,177,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm6
+ .byte 102,15,111,177,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm6
.byte 102,15,244,198 // pmuludq %xmm6,%xmm0
.byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
.byte 102,15,244,206 // pmuludq %xmm6,%xmm1
@@ -77695,7 +77707,7 @@ _sk_clut_4D_sse2:
.byte 15,20,193 // unpcklps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,254,137,223,42,0,0 // paddd 0x2adf(%ecx),%xmm1
+ .byte 102,15,254,137,219,42,0,0 // paddd 0x2adb(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -77729,7 +77741,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,184 // paddd -0x48(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1
+ .byte 102,15,111,137,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
@@ -77750,7 +77762,7 @@ _sk_clut_4D_sse2:
.byte 15,20,200 // unpcklps %xmm0,%xmm1
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,254,129,223,42,0,0 // paddd 0x2adf(%ecx),%xmm0
+ .byte 102,15,254,129,219,42,0,0 // paddd 0x2adb(%ecx),%xmm0
.byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
@@ -77765,7 +77777,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 102,15,254,161,239,42,0,0 // paddd 0x2aef(%ecx),%xmm4
+ .byte 102,15,254,161,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm4
.byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0
@@ -77833,7 +77845,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
.byte 102,15,254,193 // paddd %xmm1,%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,145,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm2
+ .byte 102,15,111,145,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm3
.byte 102,15,244,226 // pmuludq %xmm2,%xmm4
@@ -77856,7 +77868,7 @@ _sk_clut_4D_sse2:
.byte 15,20,196 // unpcklps %xmm4,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,111,145,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm2
+ .byte 102,15,111,145,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm2
.byte 102,15,254,226 // paddd %xmm2,%xmm4
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
@@ -77872,7 +77884,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 102,15,254,153,239,42,0,0 // paddd 0x2aef(%ecx),%xmm3
+ .byte 102,15,254,153,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -77924,7 +77936,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2
.byte 15,20,218 // unpcklps %xmm2,%xmm3
.byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 102,15,254,161,239,42,0,0 // paddd 0x2aef(%ecx),%xmm4
+ .byte 102,15,254,161,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm4
.byte 102,15,112,212,229 // pshufd $0xe5,%xmm4,%xmm2
.byte 102,15,126,208 // movd %xmm2,%eax
.byte 102,15,112,212,78 // pshufd $0x4e,%xmm4,%xmm2
@@ -77957,7 +77969,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,133,56,255,255,255 // movdqa %xmm0,-0xc8(%ebp)
.byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1
+ .byte 102,15,111,137,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm1
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
@@ -77979,7 +77991,7 @@ _sk_clut_4D_sse2:
.byte 15,20,194 // unpcklps %xmm2,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,111,153,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm3
+ .byte 102,15,111,153,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm3
.byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
@@ -77995,7 +78007,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2
.byte 15,20,234 // unpcklps %xmm2,%xmm5
.byte 15,20,239 // unpcklps %xmm7,%xmm5
- .byte 102,15,254,177,239,42,0,0 // paddd 0x2aef(%ecx),%xmm6
+ .byte 102,15,254,177,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm6
.byte 102,15,112,214,229 // pshufd $0xe5,%xmm6,%xmm2
.byte 102,15,126,208 // movd %xmm2,%eax
.byte 102,15,112,214,78 // pshufd $0x4e,%xmm6,%xmm2
@@ -78048,7 +78060,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,254,185,239,42,0,0 // paddd 0x2aef(%ecx),%xmm7
+ .byte 102,15,254,185,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -78098,7 +78110,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,153,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm3
+ .byte 102,15,111,153,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
@@ -78120,7 +78132,7 @@ _sk_clut_4D_sse2:
.byte 15,20,193 // unpcklps %xmm1,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,177,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm6
+ .byte 102,15,111,177,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm6
.byte 102,15,254,206 // paddd %xmm6,%xmm1
.byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -78136,7 +78148,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 102,15,111,185,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm7
+ .byte 102,15,111,185,235,42,0,0 // movdqa 0x2aeb(%ecx),%xmm7
.byte 102,15,254,215 // paddd %xmm7,%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -78155,7 +78167,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,254,93,184 // paddd -0x48(%ebp),%xmm3
.byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4
- .byte 102,15,111,129,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm0
+ .byte 102,15,111,129,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
.byte 102,15,244,224 // pmuludq %xmm0,%xmm4
@@ -78224,7 +78236,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,193 // paddd %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm2
+ .byte 102,15,111,145,203,42,0,0 // movdqa 0x2acb(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
@@ -78247,7 +78259,7 @@ _sk_clut_4D_sse2:
.byte 15,20,218 // unpcklps %xmm2,%xmm3
.byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,254,137,223,42,0,0 // paddd 0x2adf(%ecx),%xmm1
+ .byte 102,15,254,137,219,42,0,0 // paddd 0x2adb(%ecx),%xmm1
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,126,208 // movd %xmm2,%eax
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -78263,7 +78275,7 @@ _sk_clut_4D_sse2:
.byte 15,20,217 // unpcklps %xmm1,%xmm3
.byte 15,20,218 // unpcklps %xmm2,%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
- .byte 102,15,254,129,239,42,0,0 // paddd 0x2aef(%ecx),%xmm0
+ .byte 102,15,254,129,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -78300,7 +78312,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,111,177,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm6
+ .byte 102,15,111,177,219,42,0,0 // movdqa 0x2adb(%ecx),%xmm6
.byte 102,15,254,242 // paddd %xmm2,%xmm6
.byte 102,15,112,206,229 // pshufd $0xe5,%xmm6,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
@@ -78316,7 +78328,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,254,145,239,42,0,0 // paddd 0x2aef(%ecx),%xmm2
+ .byte 102,15,254,145,235,42,0,0 // paddd 0x2aeb(%ecx),%xmm2
.byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
@@ -78386,7 +78398,7 @@ _sk_clut_4D_sse2:
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 141,86,8 // lea 0x8(%esi),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,255,42,0,0 // movaps 0x2aff(%ecx),%xmm3
+ .byte 15,40,153,251,42,0,0 // movaps 0x2afb(%ecx),%xmm3
.byte 82 // push %edx
.byte 80 // push %eax
.byte 255,86,4 // call *0x4(%esi)
@@ -78554,9 +78566,9 @@ BALIGN16
.byte 0,224 // add %ah,%al
.byte 64 // inc %eax
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 939c <.literal16+0x1fc>
+ .byte 224,64 // loopne 937c <.literal16+0x1fc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 93a0 <.literal16+0x200>
+ .byte 224,64 // loopne 9380 <.literal16+0x200>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -78567,16 +78579,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93c1 <.literal16+0x221>
+ .byte 225,61 // loope 93a1 <.literal16+0x221>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93c5 <.literal16+0x225>
+ .byte 225,61 // loope 93a5 <.literal16+0x225>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93c9 <.literal16+0x229>
+ .byte 225,61 // loope 93a9 <.literal16+0x229>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93cd <.literal16+0x22d>
+ .byte 225,61 // loope 93ad <.literal16+0x22d>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -78593,16 +78605,16 @@ BALIGN16
.byte 63 // aas
.byte 61,10,23,63,174 // cmp $0xae3f170a,%eax
.byte 71 // inc %edi
- .byte 225,61 // loope 9401 <.literal16+0x261>
+ .byte 225,61 // loope 93e1 <.literal16+0x261>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9405 <.literal16+0x265>
+ .byte 225,61 // loope 93e5 <.literal16+0x265>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9409 <.literal16+0x269>
+ .byte 225,61 // loope 93e9 <.literal16+0x269>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 940d <.literal16+0x26d>
+ .byte 225,61 // loope 93ed <.literal16+0x26d>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -78619,16 +78631,16 @@ BALIGN16
.byte 63 // aas
.byte 61,10,23,63,174 // cmp $0xae3f170a,%eax
.byte 71 // inc %edi
- .byte 225,61 // loope 9441 <.literal16+0x2a1>
+ .byte 225,61 // loope 9421 <.literal16+0x2a1>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9445 <.literal16+0x2a5>
+ .byte 225,61 // loope 9425 <.literal16+0x2a5>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9449 <.literal16+0x2a9>
+ .byte 225,61 // loope 9429 <.literal16+0x2a9>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 944d <.literal16+0x2ad>
+ .byte 225,61 // loope 942d <.literal16+0x2ad>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -78645,16 +78657,16 @@ BALIGN16
.byte 63 // aas
.byte 61,10,23,63,174 // cmp $0xae3f170a,%eax
.byte 71 // inc %edi
- .byte 225,61 // loope 9481 <.literal16+0x2e1>
+ .byte 225,61 // loope 9461 <.literal16+0x2e1>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9485 <.literal16+0x2e5>
+ .byte 225,61 // loope 9465 <.literal16+0x2e5>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9489 <.literal16+0x2e9>
+ .byte 225,61 // loope 9469 <.literal16+0x2e9>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 948d <.literal16+0x2ed>
+ .byte 225,61 // loope 946d <.literal16+0x2ed>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -78676,11 +78688,11 @@ BALIGN16
.byte 0,128,63,0,0,127 // add %al,0x7f00003f(%eax)
.byte 67 // inc %ebx
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 94cb <.literal16+0x32b>
+ .byte 127,67 // jg 94ab <.literal16+0x32b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 94cf <.literal16+0x32f>
+ .byte 127,67 // jg 94af <.literal16+0x32f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 94d3 <.literal16+0x333>
+ .byte 127,67 // jg 94b3 <.literal16+0x333>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -78954,13 +78966,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9729 <.literal16+0x589>
+ .byte 224,7 // loopne 9709 <.literal16+0x589>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 972d <.literal16+0x58d>
+ .byte 224,7 // loopne 970d <.literal16+0x58d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9731 <.literal16+0x591>
+ .byte 224,7 // loopne 9711 <.literal16+0x591>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9735 <.literal16+0x595>
+ .byte 224,7 // loopne 9715 <.literal16+0x595>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -79009,11 +79021,11 @@ BALIGN16
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,127,67 // add %bh,0x43(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 97eb <.literal16+0x64b>
+ .byte 127,67 // jg 97cb <.literal16+0x64b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 97ef <.literal16+0x64f>
+ .byte 127,67 // jg 97cf <.literal16+0x64f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 97f3 <.literal16+0x653>
+ .byte 127,67 // jg 97d3 <.literal16+0x653>
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax)
.byte 128,59,129 // cmpb $0x81,(%ebx)
.byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%eax)
@@ -79028,16 +79040,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 97e4 <.literal16+0x644>
+ .byte 127,0 // jg 97c4 <.literal16+0x644>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 97e8 <.literal16+0x648>
+ .byte 127,0 // jg 97c8 <.literal16+0x648>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 97ec <.literal16+0x64c>
+ .byte 127,0 // jg 97cc <.literal16+0x64c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 97f0 <.literal16+0x650>
+ .byte 127,0 // jg 97d0 <.literal16+0x650>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -79046,7 +79058,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9875 <.literal16+0x6d5>
+ .byte 119,115 // ja 9855 <.literal16+0x6d5>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79057,7 +79069,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 97d9 <.literal16+0x639>
+ .byte 117,191 // jne 97b9 <.literal16+0x639>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79073,7 +79085,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3d816 <_sk_clut_4D_sse2+0xe9a35c5e>
+ .byte 233,220,63,163,233 // jmp e9a3d7f6 <_sk_clut_4D_sse2+0xe9a35c5a>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -79128,16 +79140,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 98b4 <.literal16+0x714>
+ .byte 127,0 // jg 9894 <.literal16+0x714>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 98b8 <.literal16+0x718>
+ .byte 127,0 // jg 9898 <.literal16+0x718>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 98bc <.literal16+0x71c>
+ .byte 127,0 // jg 989c <.literal16+0x71c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 98c0 <.literal16+0x720>
+ .byte 127,0 // jg 98a0 <.literal16+0x720>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -79146,7 +79158,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9945 <.literal16+0x7a5>
+ .byte 119,115 // ja 9925 <.literal16+0x7a5>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79157,7 +79169,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 98a9 <.literal16+0x709>
+ .byte 117,191 // jne 9889 <.literal16+0x709>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79173,7 +79185,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3d8e6 <_sk_clut_4D_sse2+0xe9a35d2e>
+ .byte 233,220,63,163,233 // jmp e9a3d8c6 <_sk_clut_4D_sse2+0xe9a35d2a>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -79228,16 +79240,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 9984 <.literal16+0x7e4>
+ .byte 127,0 // jg 9964 <.literal16+0x7e4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9988 <.literal16+0x7e8>
+ .byte 127,0 // jg 9968 <.literal16+0x7e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 998c <.literal16+0x7ec>
+ .byte 127,0 // jg 996c <.literal16+0x7ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9990 <.literal16+0x7f0>
+ .byte 127,0 // jg 9970 <.literal16+0x7f0>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -79246,7 +79258,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9a15 <.literal16+0x875>
+ .byte 119,115 // ja 99f5 <.literal16+0x875>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79257,7 +79269,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9979 <.literal16+0x7d9>
+ .byte 117,191 // jne 9959 <.literal16+0x7d9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79273,7 +79285,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3d9b6 <_sk_clut_4D_sse2+0xe9a35dfe>
+ .byte 233,220,63,163,233 // jmp e9a3d996 <_sk_clut_4D_sse2+0xe9a35dfa>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -79328,16 +79340,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 9a54 <.literal16+0x8b4>
+ .byte 127,0 // jg 9a34 <.literal16+0x8b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9a58 <.literal16+0x8b8>
+ .byte 127,0 // jg 9a38 <.literal16+0x8b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9a5c <.literal16+0x8bc>
+ .byte 127,0 // jg 9a3c <.literal16+0x8bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9a60 <.literal16+0x8c0>
+ .byte 127,0 // jg 9a40 <.literal16+0x8c0>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -79346,7 +79358,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9ae5 <.literal16+0x945>
+ .byte 119,115 // ja 9ac5 <.literal16+0x945>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79357,7 +79369,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9a49 <.literal16+0x8a9>
+ .byte 117,191 // jne 9a29 <.literal16+0x8a9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79373,7 +79385,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3da86 <_sk_clut_4D_sse2+0xe9a35ece>
+ .byte 233,220,63,163,233 // jmp e9a3da66 <_sk_clut_4D_sse2+0xe9a35eca>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -79428,16 +79440,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 9b24 <.literal16+0x984>
+ .byte 127,0 // jg 9b04 <.literal16+0x984>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9b28 <.literal16+0x988>
+ .byte 127,0 // jg 9b08 <.literal16+0x988>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9b2c <.literal16+0x98c>
+ .byte 127,0 // jg 9b0c <.literal16+0x98c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9b30 <.literal16+0x990>
+ .byte 127,0 // jg 9b10 <.literal16+0x990>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -79446,7 +79458,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9bb5 <.literal16+0xa15>
+ .byte 119,115 // ja 9b95 <.literal16+0xa15>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79457,7 +79469,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9b19 <.literal16+0x979>
+ .byte 117,191 // jne 9af9 <.literal16+0x979>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79473,7 +79485,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3db56 <_sk_clut_4D_sse2+0xe9a35f9e>
+ .byte 233,220,63,163,233 // jmp e9a3db36 <_sk_clut_4D_sse2+0xe9a35f9a>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -79524,13 +79536,13 @@ BALIGN16
.byte 200,66,0,0 // enter $0x42,$0x0
.byte 200,66,0,0 // enter $0x42,$0x0
.byte 200,66,0,0 // enter $0x42,$0x0
- .byte 127,67 // jg 9c37 <.literal16+0xa97>
+ .byte 127,67 // jg 9c17 <.literal16+0xa97>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9c3b <.literal16+0xa9b>
+ .byte 127,67 // jg 9c1b <.literal16+0xa9b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9c3f <.literal16+0xa9f>
+ .byte 127,67 // jg 9c1f <.literal16+0xa9f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9c43 <.literal16+0xaa3>
+ .byte 127,67 // jg 9c23 <.literal16+0xaa3>
.byte 0,0 // add %al,(%eax)
.byte 0,195 // add %al,%bl
.byte 0,0 // add %al,(%eax)
@@ -79581,16 +79593,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9cc3 <.literal16+0xb23>
+ .byte 118,63 // jbe 9ca3 <.literal16+0xb23>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9cc7 <.literal16+0xb27>
+ .byte 118,63 // jbe 9ca7 <.literal16+0xb27>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9ccb <.literal16+0xb2b>
+ .byte 118,63 // jbe 9cab <.literal16+0xb2b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9ccf <.literal16+0xb2f>
+ .byte 118,63 // jbe 9caf <.literal16+0xb2f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -79619,11 +79631,11 @@ BALIGN16
.byte 128,59,0 // cmpb $0x0,(%ebx)
.byte 0,127,67 // add %bh,0x43(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9d3b <.literal16+0xb9b>
+ .byte 127,67 // jg 9d1b <.literal16+0xb9b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9d3f <.literal16+0xb9f>
+ .byte 127,67 // jg 9d1f <.literal16+0xb9f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9d43 <.literal16+0xba3>
+ .byte 127,67 // jg 9d23 <.literal16+0xba3>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
@@ -79685,13 +79697,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9db9 <.literal16+0xc19>
+ .byte 224,7 // loopne 9d99 <.literal16+0xc19>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9dbd <.literal16+0xc1d>
+ .byte 224,7 // loopne 9d9d <.literal16+0xc1d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9dc1 <.literal16+0xc21>
+ .byte 224,7 // loopne 9da1 <.literal16+0xc21>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9dc5 <.literal16+0xc25>
+ .byte 224,7 // loopne 9da5 <.literal16+0xc25>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -79737,13 +79749,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9e29 <.literal16+0xc89>
+ .byte 224,7 // loopne 9e09 <.literal16+0xc89>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9e2d <.literal16+0xc8d>
+ .byte 224,7 // loopne 9e0d <.literal16+0xc8d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9e31 <.literal16+0xc91>
+ .byte 224,7 // loopne 9e11 <.literal16+0xc91>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9e35 <.literal16+0xc95>
+ .byte 224,7 // loopne 9e15 <.literal16+0xc95>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -79789,13 +79801,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9e99 <.literal16+0xcf9>
+ .byte 224,7 // loopne 9e79 <.literal16+0xcf9>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9e9d <.literal16+0xcfd>
+ .byte 224,7 // loopne 9e7d <.literal16+0xcfd>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9ea1 <.literal16+0xd01>
+ .byte 224,7 // loopne 9e81 <.literal16+0xd01>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9ea5 <.literal16+0xd05>
+ .byte 224,7 // loopne 9e85 <.literal16+0xd05>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -79837,13 +79849,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9f36 <.literal16+0xd96>
+ .byte 124,66 // jl 9f16 <.literal16+0xd96>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9f3a <.literal16+0xd9a>
+ .byte 124,66 // jl 9f1a <.literal16+0xd9a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9f3e <.literal16+0xd9e>
+ .byte 124,66 // jl 9f1e <.literal16+0xd9e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9f42 <.literal16+0xda2>
+ .byte 124,66 // jl 9f22 <.literal16+0xda2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -79977,13 +79989,13 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo a0c5 <.literal16+0xf25>
+ .byte 112,65 // jo a0a5 <.literal16+0xf25>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo a0c9 <.literal16+0xf29>
+ .byte 112,65 // jo a0a9 <.literal16+0xf29>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo a0cd <.literal16+0xf2d>
+ .byte 112,65 // jo a0ad <.literal16+0xf2d>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo a0d1 <.literal16+0xf31>
+ .byte 112,65 // jo a0b1 <.literal16+0xf31>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -80014,11 +80026,11 @@ BALIGN16
.byte 128,59,129 // cmpb $0x81,(%ebx)
.byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a13b <.literal16+0xf9b>
+ .byte 127,67 // jg a11b <.literal16+0xf9b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a13f <.literal16+0xf9f>
+ .byte 127,67 // jg a11f <.literal16+0xf9f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a143 <.literal16+0xfa3>
+ .byte 127,67 // jg a123 <.literal16+0xfa3>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -80049,11 +80061,11 @@ BALIGN16
.byte 128,59,129 // cmpb $0x81,(%ebx)
.byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a1ab <.literal16+0x100b>
+ .byte 127,67 // jg a18b <.literal16+0x100b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a1af <.literal16+0x100f>
+ .byte 127,67 // jg a18f <.literal16+0x100f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a1b3 <.literal16+0x1013>
+ .byte 127,67 // jg a193 <.literal16+0x1013>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
@@ -80152,13 +80164,13 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 255 // (bad)
- .byte 127,71 // jg a2db <.literal16+0x113b>
+ .byte 127,71 // jg a2bb <.literal16+0x113b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg a2df <.literal16+0x113f>
+ .byte 127,71 // jg a2bf <.literal16+0x113f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg a2e3 <.literal16+0x1143>
+ .byte 127,71 // jg a2c3 <.literal16+0x1143>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg a2e7 <.literal16+0x1147>
+ .byte 127,71 // jg a2c7 <.literal16+0x1147>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -80266,7 +80278,7 @@ BALIGN16
.byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js a3ec <.literal16+0x124c>
+ .byte 120,57 // js a3cc <.literal16+0x124c>
.byte 64 // inc %eax
.byte 18,120,57 // adc 0x39(%eax),%bh
.byte 64 // inc %eax
@@ -80459,11 +80471,11 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 128,63,114 // cmpb $0x72,(%edi)
.byte 28,199 // sbb $0xc7,%al
- .byte 62,114,28 // jb,pt a5d2 <.literal16+0x1432>
+ .byte 62,114,28 // jb,pt a5b2 <.literal16+0x1432>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a5d6 <.literal16+0x1436>
+ .byte 62,114,28 // jb,pt a5b6 <.literal16+0x1436>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a5da <.literal16+0x143a>
+ .byte 62,114,28 // jb,pt a5ba <.literal16+0x143a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -80542,13 +80554,13 @@ BALIGN16
.byte 192,63,0 // sarb $0x0,(%edi)
.byte 0,192 // add %al,%al
.byte 63 // aas
- .byte 114,28 // jb a69e <.literal16+0x14fe>
+ .byte 114,28 // jb a67e <.literal16+0x14fe>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6a2 <.literal16+0x1502>
+ .byte 62,114,28 // jb,pt a682 <.literal16+0x1502>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6a6 <.literal16+0x1506>
+ .byte 62,114,28 // jb,pt a686 <.literal16+0x1506>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6aa <.literal16+0x150a>
+ .byte 62,114,28 // jb,pt a68a <.literal16+0x150a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -80569,11 +80581,11 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 128,63,114 // cmpb $0x72,(%edi)
.byte 28,199 // sbb $0xc7,%al
- .byte 62,114,28 // jb,pt a6e2 <.literal16+0x1542>
+ .byte 62,114,28 // jb,pt a6c2 <.literal16+0x1542>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6e6 <.literal16+0x1546>
+ .byte 62,114,28 // jb,pt a6c6 <.literal16+0x1546>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6ea <.literal16+0x154a>
+ .byte 62,114,28 // jb,pt a6ca <.literal16+0x154a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -80652,13 +80664,13 @@ BALIGN16
.byte 192,63,0 // sarb $0x0,(%edi)
.byte 0,192 // add %al,%al
.byte 63 // aas
- .byte 114,28 // jb a7ae <.literal16+0x160e>
+ .byte 114,28 // jb a78e <.literal16+0x160e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a7b2 <.literal16+0x1612>
+ .byte 62,114,28 // jb,pt a792 <.literal16+0x1612>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a7b6 <.literal16+0x1616>
+ .byte 62,114,28 // jb,pt a796 <.literal16+0x1616>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a7ba <.literal16+0x161a>
+ .byte 62,114,28 // jb,pt a79a <.literal16+0x161a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -80668,14 +80680,14 @@ BALIGN16
.byte 170 // stos %al,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
.byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
- .byte 114,249 // jb a7ab <.literal16+0x160b>
- .byte 127,63 // jg a7f3 <.literal16+0x1653>
- .byte 114,249 // jb a7af <.literal16+0x160f>
- .byte 127,63 // jg a7f7 <.literal16+0x1657>
- .byte 114,249 // jb a7b3 <.literal16+0x1613>
- .byte 127,63 // jg a7fb <.literal16+0x165b>
- .byte 114,249 // jb a7b7 <.literal16+0x1617>
- .byte 127,63 // jg a7ff <.literal16+0x165f>
+ .byte 114,249 // jb a78b <.literal16+0x160b>
+ .byte 127,63 // jg a7d3 <.literal16+0x1653>
+ .byte 114,249 // jb a78f <.literal16+0x160f>
+ .byte 127,63 // jg a7d7 <.literal16+0x1657>
+ .byte 114,249 // jb a793 <.literal16+0x1613>
+ .byte 127,63 // jg a7db <.literal16+0x165b>
+ .byte 114,249 // jb a797 <.literal16+0x1617>
+ .byte 127,63 // jg a7df <.literal16+0x165f>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -80700,14 +80712,14 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 2,0 // add (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 114,249 // jb a7eb <.literal16+0x164b>
- .byte 127,63 // jg a833 <.literal16+0x1693>
- .byte 114,249 // jb a7ef <.literal16+0x164f>
- .byte 127,63 // jg a837 <.literal16+0x1697>
- .byte 114,249 // jb a7f3 <.literal16+0x1653>
- .byte 127,63 // jg a83b <.literal16+0x169b>
- .byte 114,249 // jb a7f7 <.literal16+0x1657>
- .byte 127,63 // jg a83f <.literal16+0x169f>
+ .byte 114,249 // jb a7cb <.literal16+0x164b>
+ .byte 127,63 // jg a813 <.literal16+0x1693>
+ .byte 114,249 // jb a7cf <.literal16+0x164f>
+ .byte 127,63 // jg a817 <.literal16+0x1697>
+ .byte 114,249 // jb a7d3 <.literal16+0x1653>
+ .byte 127,63 // jg a81b <.literal16+0x169b>
+ .byte 114,249 // jb a7d7 <.literal16+0x1657>
+ .byte 127,63 // jg a81f <.literal16+0x169f>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax