# Copyright 2017 Google Inc. # # Use of this source code is governed by a BSD-style license that can be # found in the LICENSE file. # This file is generated semi-automatically with this command: # $ src/jumper/build_stages.py #if defined(__MACH__) #define HIDDEN .private_extern #define FUNCTION(name) #define BALIGN4 .align 2 #define BALIGN8 .align 3 #define BALIGN16 .align 4 #define BALIGN32 .align 5 #else .section .note.GNU-stack,"",%progbits #define HIDDEN .hidden #define FUNCTION(name) .type name,%function #define BALIGN4 .balign 4 #define BALIGN8 .balign 8 #define BALIGN16 .balign 16 #define BALIGN32 .balign 32 #endif .text #if defined(__aarch64__) BALIGN4 HIDDEN _sk_start_pipeline_aarch64 .globl _sk_start_pipeline_aarch64 FUNCTION(_sk_start_pipeline_aarch64) _sk_start_pipeline_aarch64: .long 0xa9ba6ffc // stp x28, x27, [sp, #-96]! .long 0xa90167fa // stp x26, x25, [sp, #16] .long 0xa9025ff8 // stp x24, x23, [sp, #32] .long 0xa90357f6 // stp x22, x21, [sp, #48] .long 0xa9044ff4 // stp x20, x19, [sp, #64] .long 0xa9057bfd // stp x29, x30, [sp, #80] .long 0xaa0403f4 // mov x20, x4 .long 0xf840869a // ldr x26, [x20], #8 .long 0xaa0303f5 // mov x21, x3 .long 0xaa0103f7 // mov x23, x1 .long 0xaa0503f3 // mov x19, x5 .long 0xaa0203f6 // mov x22, x2 .long 0xeb1502ff // cmp x23, x21 .long 0xaa0003f8 // mov x24, x0 .long 0x910143fd // add x29, sp, #0x50 .long 0x54000342 // b.cs a4 <_sk_start_pipeline_aarch64+0xa4> // b.hs, b.nlast .long 0x9100131b // add x27, x24, #0x4 .long 0xeb16037f // cmp x27, x22 .long 0xaa1803e2 // mov x2, x24 .long 0x540001a8 // b.hi 80 <_sk_start_pipeline_aarch64+0x80> // b.pmore .long 0xaa1803f9 // mov x25, x24 .long 0xaa1303e0 // mov x0, x19 .long 0xaa1403e1 // mov x1, x20 .long 0xaa1903e2 // mov x2, x25 .long 0xaa1703e3 // mov x3, x23 .long 0xaa1f03e4 // mov x4, xzr .long 0xd63f0340 // blr x26 .long 0x91001322 // add x2, x25, #0x4 .long 0x91002328 // add x8, x25, #0x8 .long 0xeb16011f // cmp x8, x22 .long 0xaa0203f9 // mov x25, x2 .long 0x54fffec9 // b.ls 54 <_sk_start_pipeline_aarch64+0x54> // b.plast .long 0xcb0202c4 // sub x4, x22, x2 .long 0xb40000a4 // cbz x4, 98 <_sk_start_pipeline_aarch64+0x98> .long 0xaa1303e0 // mov x0, x19 .long 0xaa1403e1 // mov x1, x20 .long 0xaa1703e3 // mov x3, x23 .long 0xd63f0340 // blr x26 .long 0x910006f7 // add x23, x23, #0x1 .long 0xeb1502ff // cmp x23, x21 .long 0x54fffd21 // b.ne 44 <_sk_start_pipeline_aarch64+0x44> // b.any .long 0xa9457bfd // ldp x29, x30, [sp, #80] .long 0xa9444ff4 // ldp x20, x19, [sp, #64] .long 0xa94357f6 // ldp x22, x21, [sp, #48] .long 0xa9425ff8 // ldp x24, x23, [sp, #32] .long 0xa94167fa // ldp x26, x25, [sp, #16] .long 0xa8c66ffc // ldp x28, x27, [sp], #96 .long 0xd65f03c0 // ret HIDDEN _sk_just_return_aarch64 .globl _sk_just_return_aarch64 FUNCTION(_sk_just_return_aarch64) _sk_just_return_aarch64: .long 0xd65f03c0 // ret HIDDEN _sk_seed_shader_aarch64 .globl _sk_seed_shader_aarch64 FUNCTION(_sk_seed_shader_aarch64) _sk_seed_shader_aarch64: .long 0x3dc00007 // ldr q7, [x0] .long 0x4e040c40 // dup v0.4s, w2 .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f0167e1 // movi v1.4s, #0x3f, lsl #24 .long 0x4e040c66 // dup v6.4s, w3 .long 0x4e21d800 // scvtf v0.4s, v0.4s .long 0x4e21d8c6 // scvtf v6.4s, v6.4s .long 0x4e21d400 // fadd v0.4s, v0.4s, v1.4s .long 0x4f03f602 // fmov v2.4s, #1.000000000000000000e+00 .long 0x6f00e403 // movi v3.2d, #0x0 .long 0x6f00e404 // movi v4.2d, #0x0 .long 0x6f00e405 // movi v5.2d, #0x0 .long 0x4e21d4c1 // fadd v1.4s, v6.4s, v1.4s .long 0x6f00e406 // movi v6.2d, #0x0 .long 0x4e27d400 // fadd v0.4s, v0.4s, v7.4s .long 0x6f00e407 // movi v7.2d, #0x0 .long 0xd61f00a0 // br x5 HIDDEN _sk_dither_aarch64 .globl _sk_dither_aarch64 FUNCTION(_sk_dither_aarch64) _sk_dither_aarch64: .long 0x3dc00811 // ldr q17, [x0, #32] .long 0x4e040c50 // dup v16.4s, w2 .long 0x4e040c72 // dup v18.4s, w3 .long 0x4f000433 // movi v19.4s, #0x1 .long 0x4f000455 // movi v21.4s, #0x2 .long 0x4eb08630 // add v16.4s, v17.4s, v16.4s .long 0x4f000494 // movi v20.4s, #0x4 .long 0x52a79008 // mov w8, #0x3c800000 .long 0x6e301e51 // eor v17.16b, v18.16b, v16.16b .long 0x4e331e12 // and v18.16b, v16.16b, v19.16b .long 0x4e351e17 // and v23.16b, v16.16b, v21.16b .long 0x4e040d16 // dup v22.4s, w8 .long 0x4e341e10 // and v16.16b, v16.16b, v20.16b .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4f245652 // shl v18.4s, v18.4s, #4 .long 0x4f2156f7 // shl v23.4s, v23.4s, #1 .long 0x4e331e33 // and v19.16b, v17.16b, v19.16b .long 0x4eb21ef2 // orr v18.16b, v23.16b, v18.16b .long 0x6f3e0610 // ushr v16.4s, v16.4s, #2 .long 0x4e351e35 // and v21.16b, v17.16b, v21.16b .long 0x4eb01e50 // orr v16.16b, v18.16b, v16.16b .long 0x4f255673 // shl v19.4s, v19.4s, #5 .long 0x4e341e31 // and v17.16b, v17.16b, v20.16b .long 0x4f2256b5 // shl v21.4s, v21.4s, #2 .long 0x4eb31e10 // orr v16.16b, v16.16b, v19.16b .long 0xbd400117 // ldr s23, [x8] .long 0x6f3f0631 // ushr v17.4s, v17.4s, #1 .long 0x4eb51e10 // orr v16.16b, v16.16b, v21.16b .long 0x52b7df89 // mov w9, #0xbefc0000 .long 0x4eb11e10 // orr v16.16b, v16.16b, v17.16b .long 0x4e040d34 // dup v20.4s, w9 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x4e30ced4 // fmla v20.4s, v22.4s, v16.4s .long 0x4f979290 // fmul v16.4s, v20.4s, v23.s[0] .long 0x4e20d600 // fadd v0.4s, v16.4s, v0.4s .long 0x4e21d601 // fadd v1.4s, v16.4s, v1.4s .long 0x4e22d602 // fadd v2.4s, v16.4s, v2.4s .long 0x6f00e412 // movi v18.2d, #0x0 .long 0x4ea3f400 // fmin v0.4s, v0.4s, v3.4s .long 0x4ea3f421 // fmin v1.4s, v1.4s, v3.4s .long 0x4ea3f442 // fmin v2.4s, v2.4s, v3.4s .long 0x4e20f640 // fmax v0.4s, v18.4s, v0.4s .long 0x4e21f641 // fmax v1.4s, v18.4s, v1.4s .long 0x4e22f642 // fmax v2.4s, v18.4s, v2.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_uniform_color_aarch64 .globl _sk_uniform_color_aarch64 FUNCTION(_sk_uniform_color_aarch64) _sk_uniform_color_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803ea // mov x10, x8 .long 0x4ddfc940 // ld1r {v0.4s}, [x10], #4 .long 0x91002109 // add x9, x8, #0x8 .long 0x91003108 // add x8, x8, #0xc .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0x4d40c903 // ld1r {v3.4s}, [x8] .long 0x4d40c941 // ld1r {v1.4s}, [x10] .long 0xd61f00a0 // br x5 HIDDEN _sk_black_color_aarch64 .globl _sk_black_color_aarch64 FUNCTION(_sk_black_color_aarch64) _sk_black_color_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x6f00e402 // movi v2.2d, #0x0 .long 0xd61f00a0 // br x5 HIDDEN _sk_white_color_aarch64 .globl _sk_white_color_aarch64 FUNCTION(_sk_white_color_aarch64) _sk_white_color_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f600 // fmov v0.4s, #1.000000000000000000e+00 .long 0x4ea01c01 // mov v1.16b, v0.16b .long 0x4ea01c02 // mov v2.16b, v0.16b .long 0x4ea01c03 // mov v3.16b, v0.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_load_rgba_aarch64 .globl _sk_load_rgba_aarch64 FUNCTION(_sk_load_rgba_aarch64) _sk_load_rgba_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xad400500 // ldp q0, q1, [x8] .long 0xad410d02 // ldp q2, q3, [x8, #32] .long 0xd61f00a0 // br x5 HIDDEN _sk_store_rgba_aarch64 .globl _sk_store_rgba_aarch64 FUNCTION(_sk_store_rgba_aarch64) _sk_store_rgba_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xad000500 // stp q0, q1, [x8] .long 0xad010d02 // stp q2, q3, [x8, #32] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_clear_aarch64 .globl _sk_clear_aarch64 FUNCTION(_sk_clear_aarch64) _sk_clear_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x6f00e402 // movi v2.2d, #0x0 .long 0x6f00e403 // movi v3.2d, #0x0 .long 0xd61f00a0 // br x5 HIDDEN _sk_srcatop_aarch64 .globl _sk_srcatop_aarch64 FUNCTION(_sk_srcatop_aarch64) _sk_srcatop_aarch64: .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x6e27dc00 // fmul v0.4s, v0.4s, v7.4s .long 0x6e27dc21 // fmul v1.4s, v1.4s, v7.4s .long 0x6e27dc42 // fmul v2.4s, v2.4s, v7.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e30cc80 // fmla v0.4s, v4.4s, v16.4s .long 0x4e30cca1 // fmla v1.4s, v5.4s, v16.4s .long 0x4e30ccc2 // fmla v2.4s, v6.4s, v16.4s .long 0x6e27de10 // fmul v16.4s, v16.4s, v7.4s .long 0x4e23ccf0 // fmla v16.4s, v7.4s, v3.4s .long 0x4eb01e03 // mov v3.16b, v16.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_dstatop_aarch64 .globl _sk_dstatop_aarch64 FUNCTION(_sk_dstatop_aarch64) _sk_dstatop_aarch64: .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4ea7d610 // fsub v16.4s, v16.4s, v7.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e20de00 // fmul v0.4s, v16.4s, v0.4s .long 0x6e21de01 // fmul v1.4s, v16.4s, v1.4s .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0x6e23de10 // fmul v16.4s, v16.4s, v3.4s .long 0x4e23ccf0 // fmla v16.4s, v7.4s, v3.4s .long 0x4e23cc80 // fmla v0.4s, v4.4s, v3.4s .long 0x4e23cca1 // fmla v1.4s, v5.4s, v3.4s .long 0x4e23ccc2 // fmla v2.4s, v6.4s, v3.4s .long 0x4eb01e03 // mov v3.16b, v16.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_srcin_aarch64 .globl _sk_srcin_aarch64 FUNCTION(_sk_srcin_aarch64) _sk_srcin_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e27dc00 // fmul v0.4s, v0.4s, v7.4s .long 0x6e27dc21 // fmul v1.4s, v1.4s, v7.4s .long 0x6e27dc42 // fmul v2.4s, v2.4s, v7.4s .long 0x6e27dc63 // fmul v3.4s, v3.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_dstin_aarch64 .globl _sk_dstin_aarch64 FUNCTION(_sk_dstin_aarch64) _sk_dstin_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e24dc60 // fmul v0.4s, v3.4s, v4.4s .long 0x6e25dc61 // fmul v1.4s, v3.4s, v5.4s .long 0x6e26dc62 // fmul v2.4s, v3.4s, v6.4s .long 0x6e27dc63 // fmul v3.4s, v3.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_srcout_aarch64 .globl _sk_srcout_aarch64 FUNCTION(_sk_srcout_aarch64) _sk_srcout_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4ea7d610 // fsub v16.4s, v16.4s, v7.4s .long 0x6e20de00 // fmul v0.4s, v16.4s, v0.4s .long 0x6e21de01 // fmul v1.4s, v16.4s, v1.4s .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0x6e23de03 // fmul v3.4s, v16.4s, v3.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_dstout_aarch64 .globl _sk_dstout_aarch64 FUNCTION(_sk_dstout_aarch64) _sk_dstout_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f600 // fmov v0.4s, #1.000000000000000000e+00 .long 0x4ea3d403 // fsub v3.4s, v0.4s, v3.4s .long 0x6e24dc60 // fmul v0.4s, v3.4s, v4.4s .long 0x6e25dc61 // fmul v1.4s, v3.4s, v5.4s .long 0x6e26dc62 // fmul v2.4s, v3.4s, v6.4s .long 0x6e27dc63 // fmul v3.4s, v3.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_srcover_aarch64 .globl _sk_srcover_aarch64 FUNCTION(_sk_srcover_aarch64) _sk_srcover_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x4e24ce00 // fmla v0.4s, v16.4s, v4.4s .long 0x4e25ce01 // fmla v1.4s, v16.4s, v5.4s .long 0x4e26ce02 // fmla v2.4s, v16.4s, v6.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_dstover_aarch64 .globl _sk_dstover_aarch64 FUNCTION(_sk_dstover_aarch64) _sk_dstover_aarch64: .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00 .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea41c90 // mov v16.16b, v4.16b .long 0x4ea7d634 // fsub v20.4s, v17.4s, v7.4s .long 0x4ea51cb1 // mov v17.16b, v5.16b .long 0x4ea61cd2 // mov v18.16b, v6.16b .long 0x4ea71cf3 // mov v19.16b, v7.16b .long 0x4e20ce90 // fmla v16.4s, v20.4s, v0.4s .long 0x4e21ce91 // fmla v17.4s, v20.4s, v1.4s .long 0x4e22ce92 // fmla v18.4s, v20.4s, v2.4s .long 0x4e23ce93 // fmla v19.4s, v20.4s, v3.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0x4eb21e42 // mov v2.16b, v18.16b .long 0x4eb31e63 // mov v3.16b, v19.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_modulate_aarch64 .globl _sk_modulate_aarch64 FUNCTION(_sk_modulate_aarch64) _sk_modulate_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e24dc00 // fmul v0.4s, v0.4s, v4.4s .long 0x6e25dc21 // fmul v1.4s, v1.4s, v5.4s .long 0x6e26dc42 // fmul v2.4s, v2.4s, v6.4s .long 0x6e27dc63 // fmul v3.4s, v3.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_multiply_aarch64 .globl _sk_multiply_aarch64 FUNCTION(_sk_multiply_aarch64) _sk_multiply_aarch64: .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4ea7d613 // fsub v19.4s, v16.4s, v7.4s .long 0x4ea3d614 // fsub v20.4s, v16.4s, v3.4s .long 0x6e20de70 // fmul v16.4s, v19.4s, v0.4s .long 0x6e21de71 // fmul v17.4s, v19.4s, v1.4s .long 0x6e22de72 // fmul v18.4s, v19.4s, v2.4s .long 0x6e23de73 // fmul v19.4s, v19.4s, v3.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e34cc90 // fmla v16.4s, v4.4s, v20.4s .long 0x4e34ccb1 // fmla v17.4s, v5.4s, v20.4s .long 0x4e34ccd2 // fmla v18.4s, v6.4s, v20.4s .long 0x4e34ccf3 // fmla v19.4s, v7.4s, v20.4s .long 0x4e20cc90 // fmla v16.4s, v4.4s, v0.4s .long 0x4e21ccb1 // fmla v17.4s, v5.4s, v1.4s .long 0x4e22ccd2 // fmla v18.4s, v6.4s, v2.4s .long 0x4e23ccf3 // fmla v19.4s, v7.4s, v3.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0x4eb21e42 // mov v2.16b, v18.16b .long 0x4eb31e63 // mov v3.16b, v19.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_plus__aarch64 .globl _sk_plus__aarch64 FUNCTION(_sk_plus__aarch64) _sk_plus__aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e24d400 // fadd v0.4s, v0.4s, v4.4s .long 0x4e25d421 // fadd v1.4s, v1.4s, v5.4s .long 0x4e26d442 // fadd v2.4s, v2.4s, v6.4s .long 0x4e27d463 // fadd v3.4s, v3.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_screen_aarch64 .globl _sk_screen_aarch64 FUNCTION(_sk_screen_aarch64) _sk_screen_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e24d410 // fadd v16.4s, v0.4s, v4.4s .long 0x4e25d431 // fadd v17.4s, v1.4s, v5.4s .long 0x4e26d452 // fadd v18.4s, v2.4s, v6.4s .long 0x4e27d473 // fadd v19.4s, v3.4s, v7.4s .long 0x4ea4cc10 // fmls v16.4s, v0.4s, v4.4s .long 0x4ea5cc31 // fmls v17.4s, v1.4s, v5.4s .long 0x4ea6cc52 // fmls v18.4s, v2.4s, v6.4s .long 0x4ea7cc73 // fmls v19.4s, v3.4s, v7.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0x4eb21e42 // mov v2.16b, v18.16b .long 0x4eb31e63 // mov v3.16b, v19.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_xor__aarch64 .globl _sk_xor__aarch64 FUNCTION(_sk_xor__aarch64) _sk_xor__aarch64: .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea7d611 // fsub v17.4s, v16.4s, v7.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x6e20de20 // fmul v0.4s, v17.4s, v0.4s .long 0x6e21de21 // fmul v1.4s, v17.4s, v1.4s .long 0x6e22de22 // fmul v2.4s, v17.4s, v2.4s .long 0x6e23de23 // fmul v3.4s, v17.4s, v3.4s .long 0x4e30cc80 // fmla v0.4s, v4.4s, v16.4s .long 0x4e30cca1 // fmla v1.4s, v5.4s, v16.4s .long 0x4e30ccc2 // fmla v2.4s, v6.4s, v16.4s .long 0x4e30cce3 // fmla v3.4s, v7.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_darken_aarch64 .globl _sk_darken_aarch64 FUNCTION(_sk_darken_aarch64) _sk_darken_aarch64: .long 0x6e27dc10 // fmul v16.4s, v0.4s, v7.4s .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s .long 0x6e27dc32 // fmul v18.4s, v1.4s, v7.4s .long 0x6e25dc73 // fmul v19.4s, v3.4s, v5.4s .long 0x4e31f610 // fmax v16.4s, v16.4s, v17.4s .long 0x4e24d400 // fadd v0.4s, v0.4s, v4.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e27dc51 // fmul v17.4s, v2.4s, v7.4s .long 0x4e33f652 // fmax v18.4s, v18.4s, v19.4s .long 0x6e26dc73 // fmul v19.4s, v3.4s, v6.4s .long 0x4eb0d400 // fsub v0.4s, v0.4s, v16.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4e33f631 // fmax v17.4s, v17.4s, v19.4s .long 0x4e25d421 // fadd v1.4s, v1.4s, v5.4s .long 0x4e26d442 // fadd v2.4s, v2.4s, v6.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x4eb2d421 // fsub v1.4s, v1.4s, v18.4s .long 0x4eb1d442 // fsub v2.4s, v2.4s, v17.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_lighten_aarch64 .globl _sk_lighten_aarch64 FUNCTION(_sk_lighten_aarch64) _sk_lighten_aarch64: .long 0x6e27dc10 // fmul v16.4s, v0.4s, v7.4s .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s .long 0x6e27dc32 // fmul v18.4s, v1.4s, v7.4s .long 0x6e25dc73 // fmul v19.4s, v3.4s, v5.4s .long 0x4eb1f610 // fmin v16.4s, v16.4s, v17.4s .long 0x4e24d400 // fadd v0.4s, v0.4s, v4.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e27dc51 // fmul v17.4s, v2.4s, v7.4s .long 0x4eb3f652 // fmin v18.4s, v18.4s, v19.4s .long 0x6e26dc73 // fmul v19.4s, v3.4s, v6.4s .long 0x4eb0d400 // fsub v0.4s, v0.4s, v16.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4eb3f631 // fmin v17.4s, v17.4s, v19.4s .long 0x4e25d421 // fadd v1.4s, v1.4s, v5.4s .long 0x4e26d442 // fadd v2.4s, v2.4s, v6.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x4eb2d421 // fsub v1.4s, v1.4s, v18.4s .long 0x4eb1d442 // fsub v2.4s, v2.4s, v17.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_difference_aarch64 .globl _sk_difference_aarch64 FUNCTION(_sk_difference_aarch64) _sk_difference_aarch64: .long 0x6e27dc10 // fmul v16.4s, v0.4s, v7.4s .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s .long 0x6e27dc32 // fmul v18.4s, v1.4s, v7.4s .long 0x6e25dc73 // fmul v19.4s, v3.4s, v5.4s .long 0x4eb1f610 // fmin v16.4s, v16.4s, v17.4s .long 0x4eb3f652 // fmin v18.4s, v18.4s, v19.4s .long 0x4e24d400 // fadd v0.4s, v0.4s, v4.4s .long 0x4e30d610 // fadd v16.4s, v16.4s, v16.4s .long 0x6e27dc51 // fmul v17.4s, v2.4s, v7.4s .long 0x6e26dc73 // fmul v19.4s, v3.4s, v6.4s .long 0x4eb0d400 // fsub v0.4s, v0.4s, v16.4s .long 0x4e25d421 // fadd v1.4s, v1.4s, v5.4s .long 0x4e32d650 // fadd v16.4s, v18.4s, v18.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb3f631 // fmin v17.4s, v17.4s, v19.4s .long 0x4eb0d421 // fsub v1.4s, v1.4s, v16.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4e26d442 // fadd v2.4s, v2.4s, v6.4s .long 0x4e31d631 // fadd v17.4s, v17.4s, v17.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x4eb1d442 // fsub v2.4s, v2.4s, v17.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_exclusion_aarch64 .globl _sk_exclusion_aarch64 FUNCTION(_sk_exclusion_aarch64) _sk_exclusion_aarch64: .long 0x4e24d410 // fadd v16.4s, v0.4s, v4.4s .long 0x6e24dc00 // fmul v0.4s, v0.4s, v4.4s .long 0x4e20d400 // fadd v0.4s, v0.4s, v0.4s .long 0x4ea0d600 // fsub v0.4s, v16.4s, v0.4s .long 0x4e25d430 // fadd v16.4s, v1.4s, v5.4s .long 0x6e25dc21 // fmul v1.4s, v1.4s, v5.4s .long 0x4e21d421 // fadd v1.4s, v1.4s, v1.4s .long 0x4ea1d601 // fsub v1.4s, v16.4s, v1.4s .long 0x4e26d450 // fadd v16.4s, v2.4s, v6.4s .long 0x6e26dc42 // fmul v2.4s, v2.4s, v6.4s .long 0x4e22d442 // fadd v2.4s, v2.4s, v2.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea2d602 // fsub v2.4s, v16.4s, v2.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_colorburn_aarch64 .globl _sk_colorburn_aarch64 FUNCTION(_sk_colorburn_aarch64) _sk_colorburn_aarch64: .long 0x4ea4d4f3 // fsub v19.4s, v7.4s, v4.4s .long 0x6e23de73 // fmul v19.4s, v19.4s, v3.4s .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00 .long 0x6e20fe73 // fdiv v19.4s, v19.4s, v0.4s .long 0x4ea7d634 // fsub v20.4s, v17.4s, v7.4s .long 0x4eb3f4f3 // fmin v19.4s, v7.4s, v19.4s .long 0x6e20de95 // fmul v21.4s, v20.4s, v0.4s .long 0x4eb3d4f3 // fsub v19.4s, v7.4s, v19.4s .long 0x4e24d6b6 // fadd v22.4s, v21.4s, v4.4s .long 0x4e33cc75 // fmla v21.4s, v3.4s, v19.4s .long 0x4ea5d4f3 // fsub v19.4s, v7.4s, v5.4s .long 0x6e23de73 // fmul v19.4s, v19.4s, v3.4s .long 0x6e21fe73 // fdiv v19.4s, v19.4s, v1.4s .long 0x4ea0d812 // fcmeq v18.4s, v0.4s, #0.0 .long 0x4eb3f4f3 // fmin v19.4s, v7.4s, v19.4s .long 0x6e751c12 // bsl v18.16b, v0.16b, v21.16b .long 0x6e21de80 // fmul v0.4s, v20.4s, v1.4s .long 0x4eb3d4f3 // fsub v19.4s, v7.4s, v19.4s .long 0x4e25d415 // fadd v21.4s, v0.4s, v5.4s .long 0x4e33cc60 // fmla v0.4s, v3.4s, v19.4s .long 0x4ea0d833 // fcmeq v19.4s, v1.4s, #0.0 .long 0x6e601c33 // bsl v19.16b, v1.16b, v0.16b .long 0x4ea6d4e0 // fsub v0.4s, v7.4s, v6.4s .long 0x6e23dc00 // fmul v0.4s, v0.4s, v3.4s .long 0x6e22fc00 // fdiv v0.4s, v0.4s, v2.4s .long 0x4ea0f4e0 // fmin v0.4s, v7.4s, v0.4s .long 0x6e22de81 // fmul v1.4s, v20.4s, v2.4s .long 0x4ea0d4e0 // fsub v0.4s, v7.4s, v0.4s .long 0x4e26d434 // fadd v20.4s, v1.4s, v6.4s .long 0x4e20cc61 // fmla v1.4s, v3.4s, v0.4s .long 0x4ea0d840 // fcmeq v0.4s, v2.4s, #0.0 .long 0x4ea3d631 // fsub v17.4s, v17.4s, v3.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e27e490 // fcmeq v16.4s, v4.4s, v7.4s .long 0x6e611c40 // bsl v0.16b, v2.16b, v1.16b .long 0x4e31cc92 // fmla v18.4s, v4.4s, v17.4s .long 0x4e27e4a1 // fcmeq v1.4s, v5.4s, v7.4s .long 0x4e27e4c2 // fcmeq v2.4s, v6.4s, v7.4s .long 0x4e31ccb3 // fmla v19.4s, v5.4s, v17.4s .long 0x4e31ccc0 // fmla v0.4s, v6.4s, v17.4s .long 0x6e721ed0 // bsl v16.16b, v22.16b, v18.16b .long 0x6e731ea1 // bsl v1.16b, v21.16b, v19.16b .long 0x6e601e82 // bsl v2.16b, v20.16b, v0.16b .long 0x4e27ce23 // fmla v3.4s, v17.4s, v7.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_colordodge_aarch64 .globl _sk_colordodge_aarch64 FUNCTION(_sk_colordodge_aarch64) _sk_colordodge_aarch64: .long 0x4f03f612 // fmov v18.4s, #1.000000000000000000e+00 .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s .long 0x4ea0d474 // fsub v20.4s, v3.4s, v0.4s .long 0x6e25dc75 // fmul v21.4s, v3.4s, v5.4s .long 0x4ea1d476 // fsub v22.4s, v3.4s, v1.4s .long 0x4ea7d657 // fsub v23.4s, v18.4s, v7.4s .long 0x6e34fe31 // fdiv v17.4s, v17.4s, v20.4s .long 0x6e36feb4 // fdiv v20.4s, v21.4s, v22.4s .long 0x6e20def5 // fmul v21.4s, v23.4s, v0.4s .long 0x4eb1f4f1 // fmin v17.4s, v7.4s, v17.4s .long 0x4e23e413 // fcmeq v19.4s, v0.4s, v3.4s .long 0x4e24d6b6 // fadd v22.4s, v21.4s, v4.4s .long 0x4e31cc75 // fmla v21.4s, v3.4s, v17.4s .long 0x6e751c13 // bsl v19.16b, v0.16b, v21.16b .long 0x6e21dee0 // fmul v0.4s, v23.4s, v1.4s .long 0x4eb4f4f4 // fmin v20.4s, v7.4s, v20.4s .long 0x4e25d415 // fadd v21.4s, v0.4s, v5.4s .long 0x4e34cc60 // fmla v0.4s, v3.4s, v20.4s .long 0x4e23e434 // fcmeq v20.4s, v1.4s, v3.4s .long 0x6e601c34 // bsl v20.16b, v1.16b, v0.16b .long 0x6e26dc60 // fmul v0.4s, v3.4s, v6.4s .long 0x4ea2d461 // fsub v1.4s, v3.4s, v2.4s .long 0x6e21fc00 // fdiv v0.4s, v0.4s, v1.4s .long 0x6e22dee1 // fmul v1.4s, v23.4s, v2.4s .long 0x4ea0f4e0 // fmin v0.4s, v7.4s, v0.4s .long 0x4e26d437 // fadd v23.4s, v1.4s, v6.4s .long 0x4e20cc61 // fmla v1.4s, v3.4s, v0.4s .long 0x4e23e440 // fcmeq v0.4s, v2.4s, v3.4s .long 0x6e611c40 // bsl v0.16b, v2.16b, v1.16b .long 0x4ea3d641 // fsub v1.4s, v18.4s, v3.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea0d890 // fcmeq v16.4s, v4.4s, #0.0 .long 0x4ea0d8b1 // fcmeq v17.4s, v5.4s, #0.0 .long 0x4e21cc93 // fmla v19.4s, v4.4s, v1.4s .long 0x4e21ccb4 // fmla v20.4s, v5.4s, v1.4s .long 0x4ea0d8c2 // fcmeq v2.4s, v6.4s, #0.0 .long 0x4e21ccc0 // fmla v0.4s, v6.4s, v1.4s .long 0x6e731ed0 // bsl v16.16b, v22.16b, v19.16b .long 0x6e741eb1 // bsl v17.16b, v21.16b, v20.16b .long 0x6e601ee2 // bsl v2.16b, v23.16b, v0.16b .long 0x4e27cc23 // fmla v3.4s, v1.4s, v7.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_hardlight_aarch64 .globl _sk_hardlight_aarch64 FUNCTION(_sk_hardlight_aarch64) _sk_hardlight_aarch64: .long 0x4ea4d4f4 // fsub v20.4s, v7.4s, v4.4s .long 0x4ea0d475 // fsub v21.4s, v3.4s, v0.4s .long 0x6e34deb4 // fmul v20.4s, v21.4s, v20.4s .long 0x4e20d411 // fadd v17.4s, v0.4s, v0.4s .long 0x6e24dc12 // fmul v18.4s, v0.4s, v4.4s .long 0x6e27dc73 // fmul v19.4s, v3.4s, v7.4s .long 0x4e34d694 // fadd v20.4s, v20.4s, v20.4s .long 0x6e31e471 // fcmge v17.4s, v3.4s, v17.4s .long 0x4e32d652 // fadd v18.4s, v18.4s, v18.4s .long 0x4eb4d674 // fsub v20.4s, v19.4s, v20.4s .long 0x6e741e51 // bsl v17.16b, v18.16b, v20.16b .long 0x4ea5d4f2 // fsub v18.4s, v7.4s, v5.4s .long 0x4ea1d474 // fsub v20.4s, v3.4s, v1.4s .long 0x6e32de92 // fmul v18.4s, v20.4s, v18.4s .long 0x4e21d436 // fadd v22.4s, v1.4s, v1.4s .long 0x6e25dc35 // fmul v21.4s, v1.4s, v5.4s .long 0x4e32d652 // fadd v18.4s, v18.4s, v18.4s .long 0x6e36e476 // fcmge v22.4s, v3.4s, v22.4s .long 0x4e35d6b5 // fadd v21.4s, v21.4s, v21.4s .long 0x4eb2d672 // fsub v18.4s, v19.4s, v18.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x6e721eb6 // bsl v22.16b, v21.16b, v18.16b .long 0x4ea6d4f2 // fsub v18.4s, v7.4s, v6.4s .long 0x4ea2d475 // fsub v21.4s, v3.4s, v2.4s .long 0x6e32deb2 // fmul v18.4s, v21.4s, v18.4s .long 0x4ea7d615 // fsub v21.4s, v16.4s, v7.4s .long 0x4e22d454 // fadd v20.4s, v2.4s, v2.4s .long 0x6e20dea0 // fmul v0.4s, v21.4s, v0.4s .long 0x6e21dea1 // fmul v1.4s, v21.4s, v1.4s .long 0x6e22deb5 // fmul v21.4s, v21.4s, v2.4s .long 0x6e26dc42 // fmul v2.4s, v2.4s, v6.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e32d652 // fadd v18.4s, v18.4s, v18.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x6e34e474 // fcmge v20.4s, v3.4s, v20.4s .long 0x4e22d442 // fadd v2.4s, v2.4s, v2.4s .long 0x4eb2d672 // fsub v18.4s, v19.4s, v18.4s .long 0x4e30cc80 // fmla v0.4s, v4.4s, v16.4s .long 0x4e30cca1 // fmla v1.4s, v5.4s, v16.4s .long 0x4e30ccd5 // fmla v21.4s, v6.4s, v16.4s .long 0x6e721c54 // bsl v20.16b, v2.16b, v18.16b .long 0x4e31d400 // fadd v0.4s, v0.4s, v17.4s .long 0x4e36d421 // fadd v1.4s, v1.4s, v22.4s .long 0x4e34d6a2 // fadd v2.4s, v21.4s, v20.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_overlay_aarch64 .globl _sk_overlay_aarch64 FUNCTION(_sk_overlay_aarch64) _sk_overlay_aarch64: .long 0x4ea4d4f4 // fsub v20.4s, v7.4s, v4.4s .long 0x4ea0d475 // fsub v21.4s, v3.4s, v0.4s .long 0x6e34deb4 // fmul v20.4s, v21.4s, v20.4s .long 0x4e24d491 // fadd v17.4s, v4.4s, v4.4s .long 0x6e24dc12 // fmul v18.4s, v0.4s, v4.4s .long 0x6e27dc73 // fmul v19.4s, v3.4s, v7.4s .long 0x4e34d694 // fadd v20.4s, v20.4s, v20.4s .long 0x6e31e4f1 // fcmge v17.4s, v7.4s, v17.4s .long 0x4e32d652 // fadd v18.4s, v18.4s, v18.4s .long 0x4eb4d674 // fsub v20.4s, v19.4s, v20.4s .long 0x6e741e51 // bsl v17.16b, v18.16b, v20.16b .long 0x4ea5d4f2 // fsub v18.4s, v7.4s, v5.4s .long 0x4ea1d474 // fsub v20.4s, v3.4s, v1.4s .long 0x6e32de92 // fmul v18.4s, v20.4s, v18.4s .long 0x4e25d4b6 // fadd v22.4s, v5.4s, v5.4s .long 0x6e25dc35 // fmul v21.4s, v1.4s, v5.4s .long 0x4e32d652 // fadd v18.4s, v18.4s, v18.4s .long 0x6e36e4f6 // fcmge v22.4s, v7.4s, v22.4s .long 0x4e35d6b5 // fadd v21.4s, v21.4s, v21.4s .long 0x4eb2d672 // fsub v18.4s, v19.4s, v18.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x6e721eb6 // bsl v22.16b, v21.16b, v18.16b .long 0x4ea6d4f2 // fsub v18.4s, v7.4s, v6.4s .long 0x4ea2d475 // fsub v21.4s, v3.4s, v2.4s .long 0x6e32deb2 // fmul v18.4s, v21.4s, v18.4s .long 0x4ea7d615 // fsub v21.4s, v16.4s, v7.4s .long 0x4e26d4d4 // fadd v20.4s, v6.4s, v6.4s .long 0x6e20dea0 // fmul v0.4s, v21.4s, v0.4s .long 0x6e21dea1 // fmul v1.4s, v21.4s, v1.4s .long 0x6e22deb5 // fmul v21.4s, v21.4s, v2.4s .long 0x6e26dc42 // fmul v2.4s, v2.4s, v6.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e32d652 // fadd v18.4s, v18.4s, v18.4s .long 0x4ea3d610 // fsub v16.4s, v16.4s, v3.4s .long 0x6e34e4f4 // fcmge v20.4s, v7.4s, v20.4s .long 0x4e22d442 // fadd v2.4s, v2.4s, v2.4s .long 0x4eb2d672 // fsub v18.4s, v19.4s, v18.4s .long 0x4e30cc80 // fmla v0.4s, v4.4s, v16.4s .long 0x4e30cca1 // fmla v1.4s, v5.4s, v16.4s .long 0x4e30ccd5 // fmla v21.4s, v6.4s, v16.4s .long 0x6e721c54 // bsl v20.16b, v2.16b, v18.16b .long 0x4e31d400 // fadd v0.4s, v0.4s, v17.4s .long 0x4e36d421 // fadd v1.4s, v1.4s, v22.4s .long 0x4e34d6a2 // fadd v2.4s, v21.4s, v20.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_softlight_aarch64 .globl _sk_softlight_aarch64 FUNCTION(_sk_softlight_aarch64) _sk_softlight_aarch64: .long 0x4ea0c8f5 // fcmgt v21.4s, v7.4s, #0.0 .long 0x6e27fc96 // fdiv v22.4s, v4.4s, v7.4s .long 0x6e27fcb8 // fdiv v24.4s, v5.4s, v7.4s .long 0x6e27fcd9 // fdiv v25.4s, v6.4s, v7.4s .long 0x4e351ed6 // and v22.16b, v22.16b, v21.16b .long 0x4e351f18 // and v24.16b, v24.16b, v21.16b .long 0x4e351f35 // and v21.16b, v25.16b, v21.16b .long 0x6ea1dad9 // frsqrte v25.4s, v22.4s .long 0x6e39df3d // fmul v29.4s, v25.4s, v25.4s .long 0x4ebdfedd // frsqrts v29.4s, v22.4s, v29.4s .long 0x6e3ddf39 // fmul v25.4s, v25.4s, v29.4s .long 0x4ea1db3d // frecpe v29.4s, v25.4s .long 0x6ea0fada // fneg v26.4s, v22.4s .long 0x6ea1db1b // frsqrte v27.4s, v24.4s .long 0x4e3dff39 // frecps v25.4s, v25.4s, v29.4s .long 0x4e3dcf3a // fmla v26.4s, v25.4s, v29.4s .long 0x6e3bdf7d // fmul v29.4s, v27.4s, v27.4s .long 0x4ebdff1d // frsqrts v29.4s, v24.4s, v29.4s .long 0x6e3ddf7b // fmul v27.4s, v27.4s, v29.4s .long 0x4ea1db7d // frecpe v29.4s, v27.4s .long 0x6ea0fb1c // fneg v28.4s, v24.4s .long 0x6ea1dab9 // frsqrte v25.4s, v21.4s .long 0x4e3dff7b // frecps v27.4s, v27.4s, v29.4s .long 0x4e3dcf7c // fmla v28.4s, v27.4s, v29.4s .long 0x6e39df3d // fmul v29.4s, v25.4s, v25.4s .long 0x4ebdfebd // frsqrts v29.4s, v21.4s, v29.4s .long 0x6e3ddf39 // fmul v25.4s, v25.4s, v29.4s .long 0x4ea1db3d // frecpe v29.4s, v25.4s .long 0x6ea0fabb // fneg v27.4s, v21.4s .long 0x4e3dff39 // frecps v25.4s, v25.4s, v29.4s .long 0x4e3dcf3b // fmla v27.4s, v25.4s, v29.4s .long 0x4e36d6d9 // fadd v25.4s, v22.4s, v22.4s .long 0x4f07f613 // fmov v19.4s, #-1.000000000000000000e+00 .long 0x4e39d739 // fadd v25.4s, v25.4s, v25.4s .long 0x4e24d497 // fadd v23.4s, v4.4s, v4.4s .long 0x4e33d6dd // fadd v29.4s, v22.4s, v19.4s .long 0x4e39cf39 // fmla v25.4s, v25.4s, v25.4s .long 0x4f00f794 // fmov v20.4s, #7.000000000000000000e+00 .long 0x6e39dfb9 // fmul v25.4s, v29.4s, v25.4s .long 0x4e37d6f7 // fadd v23.4s, v23.4s, v23.4s .long 0x6e37e4f7 // fcmge v23.4s, v7.4s, v23.4s .long 0x4e36ce99 // fmla v25.4s, v20.4s, v22.4s .long 0x6e7a1f37 // bsl v23.16b, v25.16b, v26.16b .long 0x4e38d719 // fadd v25.4s, v24.4s, v24.4s .long 0x4e39d739 // fadd v25.4s, v25.4s, v25.4s .long 0x4e33d71a // fadd v26.4s, v24.4s, v19.4s .long 0x4e39cf39 // fmla v25.4s, v25.4s, v25.4s .long 0x6e39df59 // fmul v25.4s, v26.4s, v25.4s .long 0x4e25d4ba // fadd v26.4s, v5.4s, v5.4s .long 0x4e3ad75a // fadd v26.4s, v26.4s, v26.4s .long 0x6e3ae4fa // fcmge v26.4s, v7.4s, v26.4s .long 0x4e38ce99 // fmla v25.4s, v20.4s, v24.4s .long 0x6e7c1f3a // bsl v26.16b, v25.16b, v28.16b .long 0x4e35d6bc // fadd v28.4s, v21.4s, v21.4s .long 0x4e3cd79c // fadd v28.4s, v28.4s, v28.4s .long 0x4e33d6b3 // fadd v19.4s, v21.4s, v19.4s .long 0x4e3ccf9c // fmla v28.4s, v28.4s, v28.4s .long 0x6e3cde73 // fmul v19.4s, v19.4s, v28.4s .long 0x4e35ce93 // fmla v19.4s, v20.4s, v21.4s .long 0x4e26d4d4 // fadd v20.4s, v6.4s, v6.4s .long 0x4e34d694 // fadd v20.4s, v20.4s, v20.4s .long 0x4f03f612 // fmov v18.4s, #1.000000000000000000e+00 .long 0x6e34e4f4 // fcmge v20.4s, v7.4s, v20.4s .long 0x4e20d411 // fadd v17.4s, v0.4s, v0.4s .long 0x6e7b1e74 // bsl v20.16b, v19.16b, v27.16b .long 0x4ea7d65b // fsub v27.4s, v18.4s, v7.4s .long 0x4ea31c70 // mov v16.16b, v3.16b .long 0x4e21d43d // fadd v29.4s, v1.4s, v1.4s .long 0x4e22d45c // fadd v28.4s, v2.4s, v2.4s .long 0x6e20df60 // fmul v0.4s, v27.4s, v0.4s .long 0x6e21df61 // fmul v1.4s, v27.4s, v1.4s .long 0x6e22df62 // fmul v2.4s, v27.4s, v2.4s .long 0x4ea3d63b // fsub v27.4s, v17.4s, v3.4s .long 0x4eb6d656 // fsub v22.4s, v18.4s, v22.4s .long 0x4ea31c79 // mov v25.16b, v3.16b .long 0x4e3bced0 // fmla v16.4s, v22.4s, v27.4s .long 0x4ea3d7b6 // fsub v22.4s, v29.4s, v3.4s .long 0x4eb8d658 // fsub v24.4s, v18.4s, v24.4s .long 0x4ea31c73 // mov v19.16b, v3.16b .long 0x4e36cf19 // fmla v25.4s, v24.4s, v22.4s .long 0x4ea3d798 // fsub v24.4s, v28.4s, v3.4s .long 0x4eb5d655 // fsub v21.4s, v18.4s, v21.4s .long 0x4e38ceb3 // fmla v19.4s, v21.4s, v24.4s .long 0x6e27df7b // fmul v27.4s, v27.4s, v7.4s .long 0x6e27ded6 // fmul v22.4s, v22.4s, v7.4s .long 0x6e27df18 // fmul v24.4s, v24.4s, v7.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e37df77 // fmul v23.4s, v27.4s, v23.4s .long 0x6e3aded6 // fmul v22.4s, v22.4s, v26.4s .long 0x6e34df14 // fmul v20.4s, v24.4s, v20.4s .long 0x4ea3d652 // fsub v18.4s, v18.4s, v3.4s .long 0x6e31e471 // fcmge v17.4s, v3.4s, v17.4s .long 0x6e3de475 // fcmge v21.4s, v3.4s, v29.4s .long 0x6e3ce47c // fcmge v28.4s, v3.4s, v28.4s .long 0x6e24de10 // fmul v16.4s, v16.4s, v4.4s .long 0x6e25df39 // fmul v25.4s, v25.4s, v5.4s .long 0x6e26de73 // fmul v19.4s, v19.4s, v6.4s .long 0x4e23cc97 // fmla v23.4s, v4.4s, v3.4s .long 0x4e23ccb6 // fmla v22.4s, v5.4s, v3.4s .long 0x4e23ccd4 // fmla v20.4s, v6.4s, v3.4s .long 0x4e32cc80 // fmla v0.4s, v4.4s, v18.4s .long 0x4e32cca1 // fmla v1.4s, v5.4s, v18.4s .long 0x4e32ccc2 // fmla v2.4s, v6.4s, v18.4s .long 0x6e771e11 // bsl v17.16b, v16.16b, v23.16b .long 0x6e761f35 // bsl v21.16b, v25.16b, v22.16b .long 0x6e741e7c // bsl v28.16b, v19.16b, v20.16b .long 0x4e31d400 // fadd v0.4s, v0.4s, v17.4s .long 0x4e35d421 // fadd v1.4s, v1.4s, v21.4s .long 0x4e3cd442 // fadd v2.4s, v2.4s, v28.4s .long 0x4e27ce43 // fmla v3.4s, v18.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_hue_aarch64 .globl _sk_hue_aarch64 FUNCTION(_sk_hue_aarch64) _sk_hue_aarch64: .long 0x6e23dc32 // fmul v18.4s, v1.4s, v3.4s .long 0x6e23dc53 // fmul v19.4s, v2.4s, v3.4s .long 0x4e26f4b5 // fmax v21.4s, v5.4s, v6.4s .long 0x4ea6f4b7 // fmin v23.4s, v5.4s, v6.4s .long 0x6e23dc11 // fmul v17.4s, v0.4s, v3.4s .long 0x4e35f495 // fmax v21.4s, v4.4s, v21.4s .long 0x4eb7f497 // fmin v23.4s, v4.4s, v23.4s .long 0x4eb3f65b // fmin v27.4s, v18.4s, v19.4s .long 0x52a7d328 // mov w8, #0x3e990000 .long 0x4f03f619 // fmov v25.4s, #1.000000000000000000e+00 .long 0x4e33f65c // fmax v28.4s, v18.4s, v19.4s .long 0x4eb7d6b5 // fsub v21.4s, v21.4s, v23.4s .long 0x4ebbf63b // fmin v27.4s, v17.4s, v27.4s .long 0x72933348 // movk w8, #0x999a .long 0x4ea7d737 // fsub v23.4s, v25.4s, v7.4s .long 0x4e3cf63c // fmax v28.4s, v17.4s, v28.4s .long 0x4ebbd652 // fsub v18.4s, v18.4s, v27.4s .long 0x6e23deb5 // fmul v21.4s, v21.4s, v3.4s .long 0x4e040d16 // dup v22.4s, w8 .long 0x52a7e2e8 // mov w8, #0x3f170000 .long 0x6e20dee0 // fmul v0.4s, v23.4s, v0.4s .long 0x6e21dee1 // fmul v1.4s, v23.4s, v1.4s .long 0x6e22dee2 // fmul v2.4s, v23.4s, v2.4s .long 0x4ea3d739 // fsub v25.4s, v25.4s, v3.4s .long 0x4ebbd79c // fsub v28.4s, v28.4s, v27.4s .long 0x4ebbd631 // fsub v17.4s, v17.4s, v27.4s .long 0x6e32deb2 // fmul v18.4s, v21.4s, v18.4s .long 0x728147a8 // movk w8, #0xa3d .long 0x4ebbd673 // fsub v19.4s, v19.4s, v27.4s .long 0x4e39cc80 // fmla v0.4s, v4.4s, v25.4s .long 0x4e39cca1 // fmla v1.4s, v5.4s, v25.4s .long 0x4e39ccc2 // fmla v2.4s, v6.4s, v25.4s .long 0x4ea0db99 // fcmeq v25.4s, v28.4s, #0.0 .long 0x6e31deb1 // fmul v17.4s, v21.4s, v17.4s .long 0x6e3cfe52 // fdiv v18.4s, v18.4s, v28.4s .long 0x4e040d18 // dup v24.4s, w8 .long 0x52a7bc28 // mov w8, #0x3de10000 .long 0x6e33deb3 // fmul v19.4s, v21.4s, v19.4s .long 0x6e3cfe31 // fdiv v17.4s, v17.4s, v28.4s .long 0x4e791e52 // bic v18.16b, v18.16b, v25.16b .long 0x7288f5c8 // movk w8, #0x47ae .long 0x6e3cfe73 // fdiv v19.4s, v19.4s, v28.4s .long 0x4e791e31 // bic v17.16b, v17.16b, v25.16b .long 0x6e38de55 // fmul v21.4s, v18.4s, v24.4s .long 0x4e040d17 // dup v23.4s, w8 .long 0x6e38dcbb // fmul v27.4s, v5.4s, v24.4s .long 0x4e791e73 // bic v19.16b, v19.16b, v25.16b .long 0x4e31ced5 // fmla v21.4s, v22.4s, v17.4s .long 0x4e24cedb // fmla v27.4s, v22.4s, v4.4s .long 0x4e33cef5 // fmla v21.4s, v23.4s, v19.4s .long 0x4e26cefb // fmla v27.4s, v23.4s, v6.4s .long 0x6ea0fab5 // fneg v21.4s, v21.4s .long 0x4e3bcc75 // fmla v21.4s, v3.4s, v27.4s .long 0x6e27dc74 // fmul v20.4s, v3.4s, v7.4s .long 0x4e27d47a // fadd v26.4s, v3.4s, v7.4s .long 0x4e35d623 // fadd v3.4s, v17.4s, v21.4s .long 0x4e35d651 // fadd v17.4s, v18.4s, v21.4s .long 0x6e38de38 // fmul v24.4s, v17.4s, v24.4s .long 0x4e35d672 // fadd v18.4s, v19.4s, v21.4s .long 0x4e23ced8 // fmla v24.4s, v22.4s, v3.4s .long 0x4eb2f633 // fmin v19.4s, v17.4s, v18.4s .long 0x4e32cef8 // fmla v24.4s, v23.4s, v18.4s .long 0x4eb3f473 // fmin v19.4s, v3.4s, v19.4s .long 0x4eb8d479 // fsub v25.4s, v3.4s, v24.4s .long 0x6ea0ca76 // fcmge v22.4s, v19.4s, #0.0 .long 0x4eb3d713 // fsub v19.4s, v24.4s, v19.4s .long 0x6e39df19 // fmul v25.4s, v24.4s, v25.4s .long 0x6e33ff39 // fdiv v25.4s, v25.4s, v19.4s .long 0x4e32f635 // fmax v21.4s, v17.4s, v18.4s .long 0x4eb61edb // mov v27.16b, v22.16b .long 0x4e39d719 // fadd v25.4s, v24.4s, v25.4s .long 0x4e35f475 // fmax v21.4s, v3.4s, v21.4s .long 0x6e791c7b // bsl v27.16b, v3.16b, v25.16b .long 0x4eb8d623 // fsub v3.4s, v17.4s, v24.4s .long 0x6e23df03 // fmul v3.4s, v24.4s, v3.4s .long 0x6e33fc63 // fdiv v3.4s, v3.4s, v19.4s .long 0x4eb61ed9 // mov v25.16b, v22.16b .long 0x4e23d703 // fadd v3.4s, v24.4s, v3.4s .long 0x6e631e39 // bsl v25.16b, v17.16b, v3.16b .long 0x4eb8d651 // fsub v17.4s, v18.4s, v24.4s .long 0x6e31df11 // fmul v17.4s, v24.4s, v17.4s .long 0x6e33fe31 // fdiv v17.4s, v17.4s, v19.4s .long 0x4e31d711 // fadd v17.4s, v24.4s, v17.4s .long 0x6e711e56 // bsl v22.16b, v18.16b, v17.16b .long 0x4eb8d69c // fsub v28.4s, v20.4s, v24.4s .long 0x4eb8d771 // fsub v17.4s, v27.4s, v24.4s .long 0x4eb8d732 // fsub v18.4s, v25.4s, v24.4s .long 0x4eb8d6d3 // fsub v19.4s, v22.4s, v24.4s .long 0x6eb4e6b7 // fcmgt v23.4s, v21.4s, v20.4s .long 0x4eb8d6b5 // fsub v21.4s, v21.4s, v24.4s .long 0x6e31df91 // fmul v17.4s, v28.4s, v17.4s .long 0x6e32df92 // fmul v18.4s, v28.4s, v18.4s .long 0x6e33df93 // fmul v19.4s, v28.4s, v19.4s .long 0x6e35fe31 // fdiv v17.4s, v17.4s, v21.4s .long 0x6e35fe52 // fdiv v18.4s, v18.4s, v21.4s .long 0x6e35fe73 // fdiv v19.4s, v19.4s, v21.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb71ee3 // mov v3.16b, v23.16b .long 0x4eb71efc // mov v28.16b, v23.16b .long 0x4e31d711 // fadd v17.4s, v24.4s, v17.4s .long 0x4e32d712 // fadd v18.4s, v24.4s, v18.4s .long 0x4e33d713 // fadd v19.4s, v24.4s, v19.4s .long 0x6f00e410 // movi v16.2d, #0x0 .long 0x6e7b1e23 // bsl v3.16b, v17.16b, v27.16b .long 0x6e791e5c // bsl v28.16b, v18.16b, v25.16b .long 0x6e761e77 // bsl v23.16b, v19.16b, v22.16b .long 0x4e30f463 // fmax v3.4s, v3.4s, v16.4s .long 0x4e30f791 // fmax v17.4s, v28.4s, v16.4s .long 0x4e30f6f0 // fmax v16.4s, v23.4s, v16.4s .long 0x4e23d400 // fadd v0.4s, v0.4s, v3.4s .long 0x4e31d421 // fadd v1.4s, v1.4s, v17.4s .long 0x4e30d442 // fadd v2.4s, v2.4s, v16.4s .long 0x4eb4d743 // fsub v3.4s, v26.4s, v20.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_saturation_aarch64 .globl _sk_saturation_aarch64 FUNCTION(_sk_saturation_aarch64) _sk_saturation_aarch64: .long 0x6e25dc72 // fmul v18.4s, v3.4s, v5.4s .long 0x6e26dc73 // fmul v19.4s, v3.4s, v6.4s .long 0x4e22f435 // fmax v21.4s, v1.4s, v2.4s .long 0x4ea2f437 // fmin v23.4s, v1.4s, v2.4s .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s .long 0x4e35f415 // fmax v21.4s, v0.4s, v21.4s .long 0x4eb7f417 // fmin v23.4s, v0.4s, v23.4s .long 0x4eb3f65b // fmin v27.4s, v18.4s, v19.4s .long 0x52a7d328 // mov w8, #0x3e990000 .long 0x4f03f619 // fmov v25.4s, #1.000000000000000000e+00 .long 0x4e33f65c // fmax v28.4s, v18.4s, v19.4s .long 0x4eb7d6b5 // fsub v21.4s, v21.4s, v23.4s .long 0x4ebbf63b // fmin v27.4s, v17.4s, v27.4s .long 0x72933348 // movk w8, #0x999a .long 0x4ea7d737 // fsub v23.4s, v25.4s, v7.4s .long 0x4e3cf63c // fmax v28.4s, v17.4s, v28.4s .long 0x4ebbd652 // fsub v18.4s, v18.4s, v27.4s .long 0x6e27deb5 // fmul v21.4s, v21.4s, v7.4s .long 0x4e040d16 // dup v22.4s, w8 .long 0x52a7e2e8 // mov w8, #0x3f170000 .long 0x6e20dee0 // fmul v0.4s, v23.4s, v0.4s .long 0x6e21dee1 // fmul v1.4s, v23.4s, v1.4s .long 0x6e22dee2 // fmul v2.4s, v23.4s, v2.4s .long 0x4ea3d739 // fsub v25.4s, v25.4s, v3.4s .long 0x4ebbd79c // fsub v28.4s, v28.4s, v27.4s .long 0x4ebbd631 // fsub v17.4s, v17.4s, v27.4s .long 0x6e32deb2 // fmul v18.4s, v21.4s, v18.4s .long 0x728147a8 // movk w8, #0xa3d .long 0x4ebbd673 // fsub v19.4s, v19.4s, v27.4s .long 0x4e39cc80 // fmla v0.4s, v4.4s, v25.4s .long 0x4e39cca1 // fmla v1.4s, v5.4s, v25.4s .long 0x4e39ccc2 // fmla v2.4s, v6.4s, v25.4s .long 0x4ea0db99 // fcmeq v25.4s, v28.4s, #0.0 .long 0x6e31deb1 // fmul v17.4s, v21.4s, v17.4s .long 0x6e3cfe52 // fdiv v18.4s, v18.4s, v28.4s .long 0x4e040d18 // dup v24.4s, w8 .long 0x52a7bc28 // mov w8, #0x3de10000 .long 0x6e33deb3 // fmul v19.4s, v21.4s, v19.4s .long 0x6e3cfe31 // fdiv v17.4s, v17.4s, v28.4s .long 0x4e791e52 // bic v18.16b, v18.16b, v25.16b .long 0x7288f5c8 // movk w8, #0x47ae .long 0x6e3cfe73 // fdiv v19.4s, v19.4s, v28.4s .long 0x4e791e31 // bic v17.16b, v17.16b, v25.16b .long 0x6e38de55 // fmul v21.4s, v18.4s, v24.4s .long 0x4e040d17 // dup v23.4s, w8 .long 0x6e38dcbb // fmul v27.4s, v5.4s, v24.4s .long 0x4e791e73 // bic v19.16b, v19.16b, v25.16b .long 0x4e31ced5 // fmla v21.4s, v22.4s, v17.4s .long 0x4e24cedb // fmla v27.4s, v22.4s, v4.4s .long 0x4e33cef5 // fmla v21.4s, v23.4s, v19.4s .long 0x4e26cefb // fmla v27.4s, v23.4s, v6.4s .long 0x6ea0fab5 // fneg v21.4s, v21.4s .long 0x4e3bcc75 // fmla v21.4s, v3.4s, v27.4s .long 0x6e27dc74 // fmul v20.4s, v3.4s, v7.4s .long 0x4e27d47a // fadd v26.4s, v3.4s, v7.4s .long 0x4e35d623 // fadd v3.4s, v17.4s, v21.4s .long 0x4e35d651 // fadd v17.4s, v18.4s, v21.4s .long 0x6e38de38 // fmul v24.4s, v17.4s, v24.4s .long 0x4e35d672 // fadd v18.4s, v19.4s, v21.4s .long 0x4e23ced8 // fmla v24.4s, v22.4s, v3.4s .long 0x4eb2f633 // fmin v19.4s, v17.4s, v18.4s .long 0x4e32cef8 // fmla v24.4s, v23.4s, v18.4s .long 0x4eb3f473 // fmin v19.4s, v3.4s, v19.4s .long 0x4eb8d479 // fsub v25.4s, v3.4s, v24.4s .long 0x6ea0ca76 // fcmge v22.4s, v19.4s, #0.0 .long 0x4eb3d713 // fsub v19.4s, v24.4s, v19.4s .long 0x6e39df19 // fmul v25.4s, v24.4s, v25.4s .long 0x6e33ff39 // fdiv v25.4s, v25.4s, v19.4s .long 0x4e32f635 // fmax v21.4s, v17.4s, v18.4s .long 0x4eb61edb // mov v27.16b, v22.16b .long 0x4e39d719 // fadd v25.4s, v24.4s, v25.4s .long 0x4e35f475 // fmax v21.4s, v3.4s, v21.4s .long 0x6e791c7b // bsl v27.16b, v3.16b, v25.16b .long 0x4eb8d623 // fsub v3.4s, v17.4s, v24.4s .long 0x6e23df03 // fmul v3.4s, v24.4s, v3.4s .long 0x6e33fc63 // fdiv v3.4s, v3.4s, v19.4s .long 0x4eb61ed9 // mov v25.16b, v22.16b .long 0x4e23d703 // fadd v3.4s, v24.4s, v3.4s .long 0x6e631e39 // bsl v25.16b, v17.16b, v3.16b .long 0x4eb8d651 // fsub v17.4s, v18.4s, v24.4s .long 0x6e31df11 // fmul v17.4s, v24.4s, v17.4s .long 0x6e33fe31 // fdiv v17.4s, v17.4s, v19.4s .long 0x4e31d711 // fadd v17.4s, v24.4s, v17.4s .long 0x6e711e56 // bsl v22.16b, v18.16b, v17.16b .long 0x4eb8d69c // fsub v28.4s, v20.4s, v24.4s .long 0x4eb8d771 // fsub v17.4s, v27.4s, v24.4s .long 0x4eb8d732 // fsub v18.4s, v25.4s, v24.4s .long 0x4eb8d6d3 // fsub v19.4s, v22.4s, v24.4s .long 0x6eb4e6b7 // fcmgt v23.4s, v21.4s, v20.4s .long 0x4eb8d6b5 // fsub v21.4s, v21.4s, v24.4s .long 0x6e31df91 // fmul v17.4s, v28.4s, v17.4s .long 0x6e32df92 // fmul v18.4s, v28.4s, v18.4s .long 0x6e33df93 // fmul v19.4s, v28.4s, v19.4s .long 0x6e35fe31 // fdiv v17.4s, v17.4s, v21.4s .long 0x6e35fe52 // fdiv v18.4s, v18.4s, v21.4s .long 0x6e35fe73 // fdiv v19.4s, v19.4s, v21.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb71ee3 // mov v3.16b, v23.16b .long 0x4eb71efc // mov v28.16b, v23.16b .long 0x4e31d711 // fadd v17.4s, v24.4s, v17.4s .long 0x4e32d712 // fadd v18.4s, v24.4s, v18.4s .long 0x4e33d713 // fadd v19.4s, v24.4s, v19.4s .long 0x6f00e410 // movi v16.2d, #0x0 .long 0x6e7b1e23 // bsl v3.16b, v17.16b, v27.16b .long 0x6e791e5c // bsl v28.16b, v18.16b, v25.16b .long 0x6e761e77 // bsl v23.16b, v19.16b, v22.16b .long 0x4e30f463 // fmax v3.4s, v3.4s, v16.4s .long 0x4e30f791 // fmax v17.4s, v28.4s, v16.4s .long 0x4e30f6f0 // fmax v16.4s, v23.4s, v16.4s .long 0x4e23d400 // fadd v0.4s, v0.4s, v3.4s .long 0x4e31d421 // fadd v1.4s, v1.4s, v17.4s .long 0x4e30d442 // fadd v2.4s, v2.4s, v16.4s .long 0x4eb4d743 // fsub v3.4s, v26.4s, v20.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_color_aarch64 .globl _sk_color_aarch64 FUNCTION(_sk_color_aarch64) _sk_color_aarch64: .long 0x52a7d328 // mov w8, #0x3e990000 .long 0x72933348 // movk w8, #0x999a .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a7e2e8 // mov w8, #0x3f170000 .long 0x728147a8 // movk w8, #0xa3d .long 0x6e27dc33 // fmul v19.4s, v1.4s, v7.4s .long 0x4e040d15 // dup v21.4s, w8 .long 0x52a7bc28 // mov w8, #0x3de10000 .long 0x6e27dc11 // fmul v17.4s, v0.4s, v7.4s .long 0x7288f5c8 // movk w8, #0x47ae .long 0x4f03f617 // fmov v23.4s, #1.000000000000000000e+00 .long 0x6e35de7c // fmul v28.4s, v19.4s, v21.4s .long 0x6e27dc54 // fmul v20.4s, v2.4s, v7.4s .long 0x4e040d19 // dup v25.4s, w8 .long 0x4ea7d6fa // fsub v26.4s, v23.4s, v7.4s .long 0x6e35dcbb // fmul v27.4s, v5.4s, v21.4s .long 0x4e31ce5c // fmla v28.4s, v18.4s, v17.4s .long 0x4ea3d6f7 // fsub v23.4s, v23.4s, v3.4s .long 0x6e20df40 // fmul v0.4s, v26.4s, v0.4s .long 0x6e21df41 // fmul v1.4s, v26.4s, v1.4s .long 0x6e22df42 // fmul v2.4s, v26.4s, v2.4s .long 0x4e24ce5b // fmla v27.4s, v18.4s, v4.4s .long 0x4e34cf3c // fmla v28.4s, v25.4s, v20.4s .long 0x4e37cc80 // fmla v0.4s, v4.4s, v23.4s .long 0x4e37cca1 // fmla v1.4s, v5.4s, v23.4s .long 0x4e37ccc2 // fmla v2.4s, v6.4s, v23.4s .long 0x4e26cf3b // fmla v27.4s, v25.4s, v6.4s .long 0x6ea0fb97 // fneg v23.4s, v28.4s .long 0x4e3bcc77 // fmla v23.4s, v3.4s, v27.4s .long 0x6e27dc70 // fmul v16.4s, v3.4s, v7.4s .long 0x4e27d478 // fadd v24.4s, v3.4s, v7.4s .long 0x4e37d623 // fadd v3.4s, v17.4s, v23.4s .long 0x4e37d671 // fadd v17.4s, v19.4s, v23.4s .long 0x6e35de35 // fmul v21.4s, v17.4s, v21.4s .long 0x4e37d693 // fadd v19.4s, v20.4s, v23.4s .long 0x4e23ce55 // fmla v21.4s, v18.4s, v3.4s .long 0x4eb3f634 // fmin v20.4s, v17.4s, v19.4s .long 0x4e33cf35 // fmla v21.4s, v25.4s, v19.4s .long 0x4eb4f474 // fmin v20.4s, v3.4s, v20.4s .long 0x4eb5d47a // fsub v26.4s, v3.4s, v21.4s .long 0x6ea0ca92 // fcmge v18.4s, v20.4s, #0.0 .long 0x4eb4d6b4 // fsub v20.4s, v21.4s, v20.4s .long 0x6e3adeba // fmul v26.4s, v21.4s, v26.4s .long 0x6e34ff5a // fdiv v26.4s, v26.4s, v20.4s .long 0x4e33f637 // fmax v23.4s, v17.4s, v19.4s .long 0x4eb21e5b // mov v27.16b, v18.16b .long 0x4e3ad6ba // fadd v26.4s, v21.4s, v26.4s .long 0x4e37f477 // fmax v23.4s, v3.4s, v23.4s .long 0x6e7a1c7b // bsl v27.16b, v3.16b, v26.16b .long 0x4eb5d623 // fsub v3.4s, v17.4s, v21.4s .long 0x6e23dea3 // fmul v3.4s, v21.4s, v3.4s .long 0x6e34fc63 // fdiv v3.4s, v3.4s, v20.4s .long 0x4eb21e5a // mov v26.16b, v18.16b .long 0x4e23d6a3 // fadd v3.4s, v21.4s, v3.4s .long 0x6e631e3a // bsl v26.16b, v17.16b, v3.16b .long 0x4eb5d671 // fsub v17.4s, v19.4s, v21.4s .long 0x6e31deb1 // fmul v17.4s, v21.4s, v17.4s .long 0x6e34fe31 // fdiv v17.4s, v17.4s, v20.4s .long 0x4e31d6b1 // fadd v17.4s, v21.4s, v17.4s .long 0x6e711e72 // bsl v18.16b, v19.16b, v17.16b .long 0x4eb5d61c // fsub v28.4s, v16.4s, v21.4s .long 0x4eb5d771 // fsub v17.4s, v27.4s, v21.4s .long 0x4eb5d753 // fsub v19.4s, v26.4s, v21.4s .long 0x4eb5d654 // fsub v20.4s, v18.4s, v21.4s .long 0x6eb0e6f9 // fcmgt v25.4s, v23.4s, v16.4s .long 0x4eb5d6f7 // fsub v23.4s, v23.4s, v21.4s .long 0x6e31df91 // fmul v17.4s, v28.4s, v17.4s .long 0x6e33df93 // fmul v19.4s, v28.4s, v19.4s .long 0x6e34df94 // fmul v20.4s, v28.4s, v20.4s .long 0x6e37fe31 // fdiv v17.4s, v17.4s, v23.4s .long 0x6e37fe73 // fdiv v19.4s, v19.4s, v23.4s .long 0x6e37fe94 // fdiv v20.4s, v20.4s, v23.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb91f23 // mov v3.16b, v25.16b .long 0x4eb91f3c // mov v28.16b, v25.16b .long 0x4e31d6b1 // fadd v17.4s, v21.4s, v17.4s .long 0x4e33d6b3 // fadd v19.4s, v21.4s, v19.4s .long 0x4e34d6b4 // fadd v20.4s, v21.4s, v20.4s .long 0x6f00e416 // movi v22.2d, #0x0 .long 0x6e7b1e23 // bsl v3.16b, v17.16b, v27.16b .long 0x6e7a1e7c // bsl v28.16b, v19.16b, v26.16b .long 0x6e721e99 // bsl v25.16b, v20.16b, v18.16b .long 0x4e36f463 // fmax v3.4s, v3.4s, v22.4s .long 0x4e36f791 // fmax v17.4s, v28.4s, v22.4s .long 0x4e36f732 // fmax v18.4s, v25.4s, v22.4s .long 0x4e23d400 // fadd v0.4s, v0.4s, v3.4s .long 0x4e31d421 // fadd v1.4s, v1.4s, v17.4s .long 0x4e32d442 // fadd v2.4s, v2.4s, v18.4s .long 0x4eb0d703 // fsub v3.4s, v24.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_luminosity_aarch64 .globl _sk_luminosity_aarch64 FUNCTION(_sk_luminosity_aarch64) _sk_luminosity_aarch64: .long 0x52a7d328 // mov w8, #0x3e990000 .long 0x72933348 // movk w8, #0x999a .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a7e2e8 // mov w8, #0x3f170000 .long 0x728147a8 // movk w8, #0xa3d .long 0x6e25dc73 // fmul v19.4s, v3.4s, v5.4s .long 0x4e040d15 // dup v21.4s, w8 .long 0x52a7bc28 // mov w8, #0x3de10000 .long 0x6e24dc71 // fmul v17.4s, v3.4s, v4.4s .long 0x7288f5c8 // movk w8, #0x47ae .long 0x4f03f617 // fmov v23.4s, #1.000000000000000000e+00 .long 0x6e35de7b // fmul v27.4s, v19.4s, v21.4s .long 0x6e26dc74 // fmul v20.4s, v3.4s, v6.4s .long 0x6e27dc70 // fmul v16.4s, v3.4s, v7.4s .long 0x4e27d478 // fadd v24.4s, v3.4s, v7.4s .long 0x4e040d19 // dup v25.4s, w8 .long 0x4ea7d6fa // fsub v26.4s, v23.4s, v7.4s .long 0x4ea3d6e3 // fsub v3.4s, v23.4s, v3.4s .long 0x6e35dc37 // fmul v23.4s, v1.4s, v21.4s .long 0x4e31ce5b // fmla v27.4s, v18.4s, v17.4s .long 0x4e20ce57 // fmla v23.4s, v18.4s, v0.4s .long 0x4e34cf3b // fmla v27.4s, v25.4s, v20.4s .long 0x6e20df5c // fmul v28.4s, v26.4s, v0.4s .long 0x4e22cf37 // fmla v23.4s, v25.4s, v2.4s .long 0x6ea0fb60 // fneg v0.4s, v27.4s .long 0x6e21df41 // fmul v1.4s, v26.4s, v1.4s .long 0x6e22df5a // fmul v26.4s, v26.4s, v2.4s .long 0x4e37cce0 // fmla v0.4s, v7.4s, v23.4s .long 0x4e23cc9c // fmla v28.4s, v4.4s, v3.4s .long 0x4e23cca1 // fmla v1.4s, v5.4s, v3.4s .long 0x4e23ccda // fmla v26.4s, v6.4s, v3.4s .long 0x4e20d663 // fadd v3.4s, v19.4s, v0.4s .long 0x4e20d622 // fadd v2.4s, v17.4s, v0.4s .long 0x4e20d680 // fadd v0.4s, v20.4s, v0.4s .long 0x6e35dc74 // fmul v20.4s, v3.4s, v21.4s .long 0x4e22ce54 // fmla v20.4s, v18.4s, v2.4s .long 0x4ea0f471 // fmin v17.4s, v3.4s, v0.4s .long 0x4e20cf34 // fmla v20.4s, v25.4s, v0.4s .long 0x4eb1f451 // fmin v17.4s, v2.4s, v17.4s .long 0x4eb4d457 // fsub v23.4s, v2.4s, v20.4s .long 0x6ea0ca32 // fcmge v18.4s, v17.4s, #0.0 .long 0x4eb1d691 // fsub v17.4s, v20.4s, v17.4s .long 0x6e37de97 // fmul v23.4s, v20.4s, v23.4s .long 0x6e31fef7 // fdiv v23.4s, v23.4s, v17.4s .long 0x4e20f473 // fmax v19.4s, v3.4s, v0.4s .long 0x4eb21e59 // mov v25.16b, v18.16b .long 0x4e37d697 // fadd v23.4s, v20.4s, v23.4s .long 0x4e33f453 // fmax v19.4s, v2.4s, v19.4s .long 0x6e771c59 // bsl v25.16b, v2.16b, v23.16b .long 0x4eb4d462 // fsub v2.4s, v3.4s, v20.4s .long 0x6e22de82 // fmul v2.4s, v20.4s, v2.4s .long 0x6e31fc42 // fdiv v2.4s, v2.4s, v17.4s .long 0x4eb21e57 // mov v23.16b, v18.16b .long 0x4e22d682 // fadd v2.4s, v20.4s, v2.4s .long 0x6e621c77 // bsl v23.16b, v3.16b, v2.16b .long 0x4eb4d403 // fsub v3.4s, v0.4s, v20.4s .long 0x6e23de83 // fmul v3.4s, v20.4s, v3.4s .long 0x6e31fc63 // fdiv v3.4s, v3.4s, v17.4s .long 0x4e23d683 // fadd v3.4s, v20.4s, v3.4s .long 0x6e631c12 // bsl v18.16b, v0.16b, v3.16b .long 0x4eb4d61b // fsub v27.4s, v16.4s, v20.4s .long 0x4eb4d720 // fsub v0.4s, v25.4s, v20.4s .long 0x4eb4d6e3 // fsub v3.4s, v23.4s, v20.4s .long 0x4eb4d651 // fsub v17.4s, v18.4s, v20.4s .long 0x6eb0e675 // fcmgt v21.4s, v19.4s, v16.4s .long 0x4eb4d673 // fsub v19.4s, v19.4s, v20.4s .long 0x6e20df60 // fmul v0.4s, v27.4s, v0.4s .long 0x6e23df63 // fmul v3.4s, v27.4s, v3.4s .long 0x6e31df71 // fmul v17.4s, v27.4s, v17.4s .long 0x6e33fc00 // fdiv v0.4s, v0.4s, v19.4s .long 0x6e33fc63 // fdiv v3.4s, v3.4s, v19.4s .long 0x6e33fe31 // fdiv v17.4s, v17.4s, v19.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb51ea2 // mov v2.16b, v21.16b .long 0x4eb51ebb // mov v27.16b, v21.16b .long 0x4e20d680 // fadd v0.4s, v20.4s, v0.4s .long 0x4e23d683 // fadd v3.4s, v20.4s, v3.4s .long 0x4e31d691 // fadd v17.4s, v20.4s, v17.4s .long 0x6f00e416 // movi v22.2d, #0x0 .long 0x6e791c02 // bsl v2.16b, v0.16b, v25.16b .long 0x6e771c7b // bsl v27.16b, v3.16b, v23.16b .long 0x6e721e35 // bsl v21.16b, v17.16b, v18.16b .long 0x4e36f440 // fmax v0.4s, v2.4s, v22.4s .long 0x4e36f762 // fmax v2.4s, v27.4s, v22.4s .long 0x4e36f6a3 // fmax v3.4s, v21.4s, v22.4s .long 0x4e20d780 // fadd v0.4s, v28.4s, v0.4s .long 0x4e22d421 // fadd v1.4s, v1.4s, v2.4s .long 0x4e23d742 // fadd v2.4s, v26.4s, v3.4s .long 0x4eb0d703 // fsub v3.4s, v24.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_srcover_rgba_8888_aarch64 .globl _sk_srcover_rgba_8888_aarch64 FUNCTION(_sk_srcover_rgba_8888_aarch64) _sk_srcover_rgba_8888_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0xb5000504 // cbnz x4, 1168 <_sk_srcover_rgba_8888_aarch64+0xbc> .long 0x3dc00104 // ldr q4, [x8] .long 0x6f00e625 // movi v5.2d, #0xff000000ff .long 0x6f380486 // ushr v6.4s, v4.4s, #8 .long 0x6f300487 // ushr v7.4s, v4.4s, #16 .long 0x6f280490 // ushr v16.4s, v4.4s, #24 .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00 .long 0x52a86fe9 // mov w9, #0x437f0000 .long 0x4e251cc6 // and v6.16b, v6.16b, v5.16b .long 0x4e251cf2 // and v18.16b, v7.16b, v5.16b .long 0x4e21da07 // scvtf v7.4s, v16.4s .long 0x4ea3d630 // fsub v16.4s, v17.4s, v3.4s .long 0x4e040d31 // dup v17.4s, w9 .long 0x4e251c84 // and v4.16b, v4.16b, v5.16b .long 0x4e21d8c5 // scvtf v5.4s, v6.4s .long 0x6e31dc21 // fmul v1.4s, v1.4s, v17.4s .long 0x4e21d884 // scvtf v4.4s, v4.4s .long 0x6e31dc00 // fmul v0.4s, v0.4s, v17.4s .long 0x4e25ce01 // fmla v1.4s, v16.4s, v5.4s .long 0x4e21da46 // scvtf v6.4s, v18.4s .long 0x6e31dc42 // fmul v2.4s, v2.4s, v17.4s .long 0x6e31dc63 // fmul v3.4s, v3.4s, v17.4s .long 0x4e24ce00 // fmla v0.4s, v16.4s, v4.4s .long 0x6e21a831 // fcvtnu v17.4s, v1.4s .long 0x4e26ce02 // fmla v2.4s, v16.4s, v6.4s .long 0x4e27ce03 // fmla v3.4s, v16.4s, v7.4s .long 0x6e21a810 // fcvtnu v16.4s, v0.4s .long 0x4f285631 // shl v17.4s, v17.4s, #8 .long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b .long 0x6e21a851 // fcvtnu v17.4s, v2.4s .long 0x4f305631 // shl v17.4s, v17.4s, #16 .long 0x4eb11e10 // orr v16.16b, v16.16b, v17.16b .long 0x6e21a871 // fcvtnu v17.4s, v3.4s .long 0x4f385631 // shl v17.4s, v17.4s, #24 .long 0x4eb11e10 // orr v16.16b, v16.16b, v17.16b .long 0xb5000284 // cbnz x4, 11a4 <_sk_srcover_rgba_8888_aarch64+0xf8> .long 0x3d800110 // str q16, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000300 // b.eq 11d0 <_sk_srcover_rgba_8888_aarch64+0x124> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x6f00e404 // movi v4.2d, #0x0 .long 0x540000c0 // b.eq 1194 <_sk_srcover_rgba_8888_aarch64+0xe8> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffa61 // b.ne 10d0 <_sk_srcover_rgba_8888_aarch64+0x24> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4e040fe4 // dup v4.4s, wzr .long 0x4d408124 // ld1 {v4.s}[2], [x9] .long 0xfd400105 // ldr d5, [x8] .long 0x6e054084 // ext v4.16b, v4.16b, v5.16b, #8 .long 0x6e044084 // ext v4.16b, v4.16b, v4.16b, #8 .long 0x17ffffcc // b 10d0 <_sk_srcover_rgba_8888_aarch64+0x24> .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000180 // b.eq 11dc <_sk_srcover_rgba_8888_aarch64+0x130> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x540000a0 // b.eq 11c8 <_sk_srcover_rgba_8888_aarch64+0x11c> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffd01 // b.ne 115c <_sk_srcover_rgba_8888_aarch64+0xb0> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4d008130 // st1 {v16.s}[2], [x9] .long 0xfd000110 // str d16, [x8] .long 0x17ffffe4 // b 115c <_sk_srcover_rgba_8888_aarch64+0xb0> .long 0x4e040fe4 // dup v4.4s, wzr .long 0x0d408104 // ld1 {v4.s}[0], [x8] .long 0x17ffffbe // b 10d0 <_sk_srcover_rgba_8888_aarch64+0x24> .long 0x0d008110 // st1 {v16.s}[0], [x8] .long 0x17ffffdf // b 115c <_sk_srcover_rgba_8888_aarch64+0xb0> HIDDEN _sk_clamp_0_aarch64 .globl _sk_clamp_0_aarch64 FUNCTION(_sk_clamp_0_aarch64) _sk_clamp_0_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6f00e410 // movi v16.2d, #0x0 .long 0x4e30f400 // fmax v0.4s, v0.4s, v16.4s .long 0x4e30f421 // fmax v1.4s, v1.4s, v16.4s .long 0x4e30f442 // fmax v2.4s, v2.4s, v16.4s .long 0x4e30f463 // fmax v3.4s, v3.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_clamp_1_aarch64 .globl _sk_clamp_1_aarch64 FUNCTION(_sk_clamp_1_aarch64) _sk_clamp_1_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4eb0f400 // fmin v0.4s, v0.4s, v16.4s .long 0x4eb0f421 // fmin v1.4s, v1.4s, v16.4s .long 0x4eb0f442 // fmin v2.4s, v2.4s, v16.4s .long 0x4eb0f463 // fmin v3.4s, v3.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_clamp_a_aarch64 .globl _sk_clamp_a_aarch64 FUNCTION(_sk_clamp_a_aarch64) _sk_clamp_a_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4eb0f463 // fmin v3.4s, v3.4s, v16.4s .long 0x4ea3f400 // fmin v0.4s, v0.4s, v3.4s .long 0x4ea3f421 // fmin v1.4s, v1.4s, v3.4s .long 0x4ea3f442 // fmin v2.4s, v2.4s, v3.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_clamp_a_dst_aarch64 .globl _sk_clamp_a_dst_aarch64 FUNCTION(_sk_clamp_a_dst_aarch64) _sk_clamp_a_dst_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4eb0f4e7 // fmin v7.4s, v7.4s, v16.4s .long 0x4ea7f484 // fmin v4.4s, v4.4s, v7.4s .long 0x4ea7f4a5 // fmin v5.4s, v5.4s, v7.4s .long 0x4ea7f4c6 // fmin v6.4s, v6.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_set_rgb_aarch64 .globl _sk_set_rgb_aarch64 FUNCTION(_sk_set_rgb_aarch64) _sk_set_rgb_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803e9 // mov x9, x8 .long 0x4ddfc920 // ld1r {v0.4s}, [x9], #4 .long 0x91002108 // add x8, x8, #0x8 .long 0x4d40c902 // ld1r {v2.4s}, [x8] .long 0x4d40c921 // ld1r {v1.4s}, [x9] .long 0xd61f00a0 // br x5 HIDDEN _sk_swap_rb_aarch64 .globl _sk_swap_rb_aarch64 FUNCTION(_sk_swap_rb_aarch64) _sk_swap_rb_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea01c10 // mov v16.16b, v0.16b .long 0x4ea21c40 // mov v0.16b, v2.16b .long 0x4eb01e02 // mov v2.16b, v16.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_invert_aarch64 .globl _sk_invert_aarch64 FUNCTION(_sk_invert_aarch64) _sk_invert_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4ea0d600 // fsub v0.4s, v16.4s, v0.4s .long 0x4ea1d601 // fsub v1.4s, v16.4s, v1.4s .long 0x4ea2d602 // fsub v2.4s, v16.4s, v2.4s .long 0x4ea3d603 // fsub v3.4s, v16.4s, v3.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_move_src_dst_aarch64 .globl _sk_move_src_dst_aarch64 FUNCTION(_sk_move_src_dst_aarch64) _sk_move_src_dst_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea01c04 // mov v4.16b, v0.16b .long 0x4ea11c25 // mov v5.16b, v1.16b .long 0x4ea21c46 // mov v6.16b, v2.16b .long 0x4ea31c67 // mov v7.16b, v3.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_move_dst_src_aarch64 .globl _sk_move_dst_src_aarch64 FUNCTION(_sk_move_dst_src_aarch64) _sk_move_dst_src_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea41c80 // mov v0.16b, v4.16b .long 0x4ea51ca1 // mov v1.16b, v5.16b .long 0x4ea61cc2 // mov v2.16b, v6.16b .long 0x4ea71ce3 // mov v3.16b, v7.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_premul_aarch64 .globl _sk_premul_aarch64 FUNCTION(_sk_premul_aarch64) _sk_premul_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e23dc00 // fmul v0.4s, v0.4s, v3.4s .long 0x6e23dc21 // fmul v1.4s, v1.4s, v3.4s .long 0x6e23dc42 // fmul v2.4s, v2.4s, v3.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_premul_dst_aarch64 .globl _sk_premul_dst_aarch64 FUNCTION(_sk_premul_dst_aarch64) _sk_premul_dst_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e27dc84 // fmul v4.4s, v4.4s, v7.4s .long 0x6e27dca5 // fmul v5.4s, v5.4s, v7.4s .long 0x6e27dcc6 // fmul v6.4s, v6.4s, v7.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_unpremul_aarch64 .globl _sk_unpremul_aarch64 FUNCTION(_sk_unpremul_aarch64) _sk_unpremul_aarch64: .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00 .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4ea0d870 // fcmeq v16.4s, v3.4s, #0.0 .long 0x6e23fe31 // fdiv v17.4s, v17.4s, v3.4s .long 0x4e701e30 // bic v16.16b, v17.16b, v16.16b .long 0x6e20de00 // fmul v0.4s, v16.4s, v0.4s .long 0x6e21de01 // fmul v1.4s, v16.4s, v1.4s .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_from_srgb_aarch64 .globl _sk_from_srgb_aarch64 FUNCTION(_sk_from_srgb_aarch64) _sk_from_srgb_aarch64: .long 0x52a7d328 // mov w8, #0x3e990000 .long 0x72933348 // movk w8, #0x999a .long 0x4e040d10 // dup v16.4s, w8 .long 0x52a7e648 // mov w8, #0x3f320000 .long 0x7291eb88 // movk w8, #0x8f5c .long 0x4e040d11 // dup v17.4s, w8 .long 0x52a76468 // mov w8, #0x3b230000 .long 0x729ae148 // movk w8, #0xd70a .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a7b3c8 // mov w8, #0x3d9e0000 .long 0x72907228 // movk w8, #0x8391 .long 0x6e22dc54 // fmul v20.4s, v2.4s, v2.4s .long 0x4eb11e35 // mov v21.16b, v17.16b .long 0x4eb11e37 // mov v23.16b, v17.16b .long 0x4e22ce11 // fmla v17.4s, v16.4s, v2.4s .long 0x4eb21e56 // mov v22.16b, v18.16b .long 0x4eb21e58 // mov v24.16b, v18.16b .long 0x4e34ce32 // fmla v18.4s, v17.4s, v20.4s .long 0x4e040d11 // dup v17.4s, w8 .long 0x52a7ac28 // mov w8, #0x3d610000 .long 0x6e20dc13 // fmul v19.4s, v0.4s, v0.4s .long 0x7288f5c8 // movk w8, #0x47ae .long 0x4e20ce15 // fmla v21.4s, v16.4s, v0.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e21dc34 // fmul v20.4s, v1.4s, v1.4s .long 0x4e33ceb6 // fmla v22.4s, v21.4s, v19.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x4e21ce17 // fmla v23.4s, v16.4s, v1.4s .long 0x6e31dc15 // fmul v21.4s, v0.4s, v17.4s .long 0x6ea0e660 // fcmgt v0.4s, v19.4s, v0.4s .long 0x6e31dc30 // fmul v16.4s, v1.4s, v17.4s .long 0x6ea1e661 // fcmgt v1.4s, v19.4s, v1.4s .long 0x6e31dc51 // fmul v17.4s, v2.4s, v17.4s .long 0x6ea2e662 // fcmgt v2.4s, v19.4s, v2.4s .long 0x4e34cef8 // fmla v24.4s, v23.4s, v20.4s .long 0x6e761ea0 // bsl v0.16b, v21.16b, v22.16b .long 0x6e781e01 // bsl v1.16b, v16.16b, v24.16b .long 0x6e721e22 // bsl v2.16b, v17.16b, v18.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_from_srgb_dst_aarch64 .globl _sk_from_srgb_dst_aarch64 FUNCTION(_sk_from_srgb_dst_aarch64) _sk_from_srgb_dst_aarch64: .long 0x52a7d328 // mov w8, #0x3e990000 .long 0x72933348 // movk w8, #0x999a .long 0x4e040d10 // dup v16.4s, w8 .long 0x52a7e648 // mov w8, #0x3f320000 .long 0x7291eb88 // movk w8, #0x8f5c .long 0x4e040d11 // dup v17.4s, w8 .long 0x52a76468 // mov w8, #0x3b230000 .long 0x729ae148 // movk w8, #0xd70a .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a7b3c8 // mov w8, #0x3d9e0000 .long 0x72907228 // movk w8, #0x8391 .long 0x6e26dcd4 // fmul v20.4s, v6.4s, v6.4s .long 0x4eb11e35 // mov v21.16b, v17.16b .long 0x4eb11e37 // mov v23.16b, v17.16b .long 0x4e26ce11 // fmla v17.4s, v16.4s, v6.4s .long 0x4eb21e56 // mov v22.16b, v18.16b .long 0x4eb21e58 // mov v24.16b, v18.16b .long 0x4e34ce32 // fmla v18.4s, v17.4s, v20.4s .long 0x4e040d11 // dup v17.4s, w8 .long 0x52a7ac28 // mov w8, #0x3d610000 .long 0x6e24dc93 // fmul v19.4s, v4.4s, v4.4s .long 0x7288f5c8 // movk w8, #0x47ae .long 0x4e24ce15 // fmla v21.4s, v16.4s, v4.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e25dcb4 // fmul v20.4s, v5.4s, v5.4s .long 0x4e33ceb6 // fmla v22.4s, v21.4s, v19.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x4e25ce17 // fmla v23.4s, v16.4s, v5.4s .long 0x6e31dc95 // fmul v21.4s, v4.4s, v17.4s .long 0x6ea4e664 // fcmgt v4.4s, v19.4s, v4.4s .long 0x6e31dcb0 // fmul v16.4s, v5.4s, v17.4s .long 0x6ea5e665 // fcmgt v5.4s, v19.4s, v5.4s .long 0x6e31dcd1 // fmul v17.4s, v6.4s, v17.4s .long 0x6ea6e666 // fcmgt v6.4s, v19.4s, v6.4s .long 0x4e34cef8 // fmla v24.4s, v23.4s, v20.4s .long 0x6e761ea4 // bsl v4.16b, v21.16b, v22.16b .long 0x6e781e05 // bsl v5.16b, v16.16b, v24.16b .long 0x6e721e26 // bsl v6.16b, v17.16b, v18.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_to_srgb_aarch64 .globl _sk_to_srgb_aarch64 FUNCTION(_sk_to_srgb_aarch64) _sk_to_srgb_aarch64: .long 0x52a829c8 // mov w8, #0x414e0000 .long 0x72970a48 // movk w8, #0xb852 .long 0x4e040d11 // dup v17.4s, w8 .long 0x52b76408 // mov w8, #0xbb200000 .long 0x729ae728 // movk w8, #0xd739 .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a77308 // mov w8, #0x3b980000 .long 0x72963508 // movk w8, #0xb1a8 .long 0x6ea1d810 // frsqrte v16.4s, v0.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x52a78c48 // mov w8, #0x3c620000 .long 0x6ea1d834 // frsqrte v20.4s, v1.4s .long 0x6ea1d855 // frsqrte v21.4s, v2.4s .long 0x7293f748 // movk w8, #0x9fba .long 0x6e30de16 // fmul v22.4s, v16.4s, v16.4s .long 0x6e34de97 // fmul v23.4s, v20.4s, v20.4s .long 0x6e35deb8 // fmul v24.4s, v21.4s, v21.4s .long 0x4eb6fc16 // frsqrts v22.4s, v0.4s, v22.4s .long 0x6e31dc19 // fmul v25.4s, v0.4s, v17.4s .long 0x6ea0e660 // fcmgt v0.4s, v19.4s, v0.4s .long 0x4eb7fc37 // frsqrts v23.4s, v1.4s, v23.4s .long 0x6e31dc3a // fmul v26.4s, v1.4s, v17.4s .long 0x6ea1e661 // fcmgt v1.4s, v19.4s, v1.4s .long 0x4eb8fc58 // frsqrts v24.4s, v2.4s, v24.4s .long 0x6e31dc51 // fmul v17.4s, v2.4s, v17.4s .long 0x6ea2e662 // fcmgt v2.4s, v19.4s, v2.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x52a7f208 // mov w8, #0x3f900000 .long 0x72947ae8 // movk w8, #0xa3d7 .long 0x6e36de10 // fmul v16.4s, v16.4s, v22.4s .long 0x4e040d16 // dup v22.4s, w8 .long 0x6e37de94 // fmul v20.4s, v20.4s, v23.4s .long 0x4eb31e77 // mov v23.16b, v19.16b .long 0x6e38deb5 // fmul v21.4s, v21.4s, v24.4s .long 0x4eb31e78 // mov v24.16b, v19.16b .long 0x52a7c208 // mov w8, #0x3e100000 .long 0x4e30ce57 // fmla v23.4s, v18.4s, v16.4s .long 0x4e34ce58 // fmla v24.4s, v18.4s, v20.4s .long 0x4e35ce53 // fmla v19.4s, v18.4s, v21.4s .long 0x4eb61ed2 // mov v18.16b, v22.16b .long 0x7298c988 // movk w8, #0xc64c .long 0x4e30cef2 // fmla v18.4s, v23.4s, v16.4s .long 0x4eb61ed7 // mov v23.16b, v22.16b .long 0x4e35ce76 // fmla v22.4s, v19.4s, v21.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x4e33d610 // fadd v16.4s, v16.4s, v19.4s .long 0x4e34cf17 // fmla v23.4s, v24.4s, v20.4s .long 0x4e33d694 // fadd v20.4s, v20.4s, v19.4s .long 0x4e33d6b3 // fadd v19.4s, v21.4s, v19.4s .long 0x4ea1da15 // frecpe v21.4s, v16.4s .long 0x4e35fe10 // frecps v16.4s, v16.4s, v21.4s .long 0x6e30deb0 // fmul v16.4s, v21.4s, v16.4s .long 0x4ea1da95 // frecpe v21.4s, v20.4s .long 0x4e35fe94 // frecps v20.4s, v20.4s, v21.4s .long 0x6e34deb4 // fmul v20.4s, v21.4s, v20.4s .long 0x4ea1da75 // frecpe v21.4s, v19.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e35fe73 // frecps v19.4s, v19.4s, v21.4s .long 0x6e33deb3 // fmul v19.4s, v21.4s, v19.4s .long 0x6e30de50 // fmul v16.4s, v18.4s, v16.4s .long 0x6e34def2 // fmul v18.4s, v23.4s, v20.4s .long 0x6e33ded3 // fmul v19.4s, v22.4s, v19.4s .long 0x6e701f20 // bsl v0.16b, v25.16b, v16.16b .long 0x6e721f41 // bsl v1.16b, v26.16b, v18.16b .long 0x6e731e22 // bsl v2.16b, v17.16b, v19.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_rgb_to_hsl_aarch64 .globl _sk_rgb_to_hsl_aarch64 FUNCTION(_sk_rgb_to_hsl_aarch64) _sk_rgb_to_hsl_aarch64: .long 0x4e21f410 // fmax v16.4s, v0.4s, v1.4s .long 0x4ea1f411 // fmin v17.4s, v0.4s, v1.4s .long 0x6ea1e454 // fcmgt v20.4s, v2.4s, v1.4s .long 0x4f00f715 // fmov v21.4s, #6.000000000000000000e+00 .long 0x4e22f610 // fmax v16.4s, v16.4s, v2.4s .long 0x4ea2f631 // fmin v17.4s, v17.4s, v2.4s .long 0x4f03f612 // fmov v18.4s, #1.000000000000000000e+00 .long 0x4e341eb4 // and v20.16b, v21.16b, v20.16b .long 0x4eb1d615 // fsub v21.4s, v16.4s, v17.4s .long 0x4ea2d433 // fsub v19.4s, v1.4s, v2.4s .long 0x4ea0d456 // fsub v22.4s, v2.4s, v0.4s .long 0x4f026417 // movi v23.4s, #0x40, lsl #24 .long 0x6e35fe42 // fdiv v2.4s, v18.4s, v21.4s .long 0x4ea1d418 // fsub v24.4s, v0.4s, v1.4s .long 0x4f00f619 // fmov v25.4s, #4.000000000000000000e+00 .long 0x4f0167fa // movi v26.4s, #0x3f, lsl #24 .long 0x4eb0d6f2 // fsub v18.4s, v23.4s, v16.4s .long 0x4e36cc57 // fmla v23.4s, v2.4s, v22.4s .long 0x4e31e616 // fcmeq v22.4s, v16.4s, v17.4s .long 0x4e20e600 // fcmeq v0.4s, v16.4s, v0.4s .long 0x4e21e601 // fcmeq v1.4s, v16.4s, v1.4s .long 0x4e31d610 // fadd v16.4s, v16.4s, v17.4s .long 0x52a7c548 // mov w8, #0x3e2a0000 .long 0x4e33cc54 // fmla v20.4s, v2.4s, v19.4s .long 0x4e38cc59 // fmla v25.4s, v2.4s, v24.4s .long 0x6e3ade02 // fmul v2.4s, v16.4s, v26.4s .long 0x72955568 // movk w8, #0xaaab .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb1d651 // fsub v17.4s, v18.4s, v17.4s .long 0x6ebae452 // fcmgt v18.4s, v2.4s, v26.4s .long 0x6e791ee1 // bsl v1.16b, v23.16b, v25.16b .long 0x4e040d13 // dup v19.4s, w8 .long 0x6e701e32 // bsl v18.16b, v17.16b, v16.16b .long 0x6e611e80 // bsl v0.16b, v20.16b, v1.16b .long 0x6e32fea1 // fdiv v1.4s, v21.4s, v18.4s .long 0x6e33dc00 // fmul v0.4s, v0.4s, v19.4s .long 0x4e761c00 // bic v0.16b, v0.16b, v22.16b .long 0x4e761c21 // bic v1.16b, v1.16b, v22.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_hsl_to_rgb_aarch64 .globl _sk_hsl_to_rgb_aarch64 FUNCTION(_sk_hsl_to_rgb_aarch64) _sk_hsl_to_rgb_aarch64: .long 0x52a7d548 // mov w8, #0x3eaa0000 .long 0x72955568 // movk w8, #0xaaab .long 0x4e040d14 // dup v20.4s, w8 .long 0x52a7e548 // mov w8, #0x3f2a0000 .long 0x72955568 // movk w8, #0xaaab .long 0x4f0167f1 // movi v17.4s, #0x3f, lsl #24 .long 0x6e22dc32 // fmul v18.4s, v1.4s, v2.4s .long 0x4e040d17 // dup v23.4s, w8 .long 0x52b7d548 // mov w8, #0xbeaa0000 .long 0x4ea0d830 // fcmeq v16.4s, v1.4s, #0.0 .long 0x72955568 // movk w8, #0xaaab .long 0x6e31e45a // fcmge v26.4s, v2.4s, v17.4s .long 0x4eb2d421 // fsub v1.4s, v1.4s, v18.4s .long 0x4e040d18 // dup v24.4s, w8 .long 0x4e219819 // frintm v25.4s, v0.4s .long 0x6e721c3a // bsl v26.16b, v1.16b, v18.16b .long 0x4e34d401 // fadd v1.4s, v0.4s, v20.4s .long 0x4eb9d419 // fsub v25.4s, v0.4s, v25.4s .long 0x4e38d400 // fadd v0.4s, v0.4s, v24.4s .long 0x4e22d754 // fadd v20.4s, v26.4s, v2.4s .long 0x4e219838 // frintm v24.4s, v1.4s .long 0x4f026413 // movi v19.4s, #0x40, lsl #24 .long 0x4f00f715 // fmov v21.4s, #6.000000000000000000e+00 .long 0x4e21981b // frintm v27.4s, v0.4s .long 0x6ea0fa9c // fneg v28.4s, v20.4s .long 0x4eb8d421 // fsub v1.4s, v1.4s, v24.4s .long 0x4f00f616 // fmov v22.4s, #4.000000000000000000e+00 .long 0x4ebbd418 // fsub v24.4s, v0.4s, v27.4s .long 0x4e22ce7c // fmla v28.4s, v19.4s, v2.4s .long 0x6e35dc20 // fmul v0.4s, v1.4s, v21.4s .long 0x6e35df32 // fmul v18.4s, v25.4s, v21.4s .long 0x6e35df13 // fmul v19.4s, v24.4s, v21.4s .long 0x4ebcd695 // fsub v21.4s, v20.4s, v28.4s .long 0x4ea0d6db // fsub v27.4s, v22.4s, v0.4s .long 0x4ebc1f9d // mov v29.16b, v28.16b .long 0x4e3bcebd // fmla v29.4s, v21.4s, v27.4s .long 0x4ebc1f9b // mov v27.16b, v28.16b .long 0x4eb2d6da // fsub v26.4s, v22.4s, v18.4s .long 0x4e20cebb // fmla v27.4s, v21.4s, v0.4s .long 0x4ebc1f80 // mov v0.16b, v28.16b .long 0x4e3acea0 // fmla v0.4s, v21.4s, v26.4s .long 0x4ebc1f9a // mov v26.16b, v28.16b .long 0x4eb3d6d6 // fsub v22.4s, v22.4s, v19.4s .long 0x4e32ceba // fmla v26.4s, v21.4s, v18.4s .long 0x4ebc1f92 // mov v18.16b, v28.16b .long 0x52a7c548 // mov w8, #0x3e2a0000 .long 0x4e36ceb2 // fmla v18.4s, v21.4s, v22.4s .long 0x6e37e436 // fcmge v22.4s, v1.4s, v23.4s .long 0x72955568 // movk w8, #0xaaab .long 0x6e7d1f96 // bsl v22.16b, v28.16b, v29.16b .long 0x6e37e73d // fcmge v29.4s, v25.4s, v23.4s .long 0x6e37e717 // fcmge v23.4s, v24.4s, v23.4s .long 0x6e601f9d // bsl v29.16b, v28.16b, v0.16b .long 0x4e040d1e // dup v30.4s, w8 .long 0x6e721f97 // bsl v23.16b, v28.16b, v18.16b .long 0x4e33cebc // fmla v28.4s, v21.4s, v19.4s .long 0x6e31e732 // fcmge v18.4s, v25.4s, v17.4s .long 0x6e31e435 // fcmge v21.4s, v1.4s, v17.4s .long 0x6e31e711 // fcmge v17.4s, v24.4s, v17.4s .long 0x6e3ee718 // fcmge v24.4s, v24.4s, v30.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e741ef1 // bsl v17.16b, v23.16b, v20.16b .long 0x6e3ee733 // fcmge v19.4s, v25.4s, v30.4s .long 0x6e3ee439 // fcmge v25.4s, v1.4s, v30.4s .long 0x6e741ed5 // bsl v21.16b, v22.16b, v20.16b .long 0x6e741fb2 // bsl v18.16b, v29.16b, v20.16b .long 0x6e7c1e38 // bsl v24.16b, v17.16b, v28.16b .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb01e01 // mov v1.16b, v16.16b .long 0x6e7b1eb9 // bsl v25.16b, v21.16b, v27.16b .long 0x6e7a1e53 // bsl v19.16b, v18.16b, v26.16b .long 0x6e781c50 // bsl v16.16b, v2.16b, v24.16b .long 0x6e791c40 // bsl v0.16b, v2.16b, v25.16b .long 0x6e731c41 // bsl v1.16b, v2.16b, v19.16b .long 0x4eb01e02 // mov v2.16b, v16.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_scale_1_float_aarch64 .globl _sk_scale_1_float_aarch64 FUNCTION(_sk_scale_1_float_aarch64) _sk_scale_1_float_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xbd400110 // ldr s16, [x8] .long 0x4f909000 // fmul v0.4s, v0.4s, v16.s[0] .long 0x4f909021 // fmul v1.4s, v1.4s, v16.s[0] .long 0x4f909042 // fmul v2.4s, v2.4s, v16.s[0] .long 0x4f909063 // fmul v3.4s, v3.4s, v16.s[0] .long 0xd61f00a0 // br x5 HIDDEN _sk_scale_u8_aarch64 .globl _sk_scale_u8_aarch64 FUNCTION(_sk_scale_u8_aarch64) _sk_scale_u8_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb50002e4 // cbnz x4, 17b8 <_sk_scale_u8_aarch64+0x74> .long 0x39400109 // ldrb w9, [x8] .long 0x3940050a // ldrb w10, [x8, #1] .long 0x3940090b // ldrb w11, [x8, #2] .long 0x39400d08 // ldrb w8, [x8, #3] .long 0x4e021d30 // mov v16.h[0], w9 .long 0x4e061d50 // mov v16.h[1], w10 .long 0x4e0a1d70 // mov v16.h[2], w11 .long 0x4e0e1d10 // mov v16.h[3], w8 .long 0x2f07b7f0 // bic v16.4h, #0xff, lsl #8 .long 0x52a77008 // mov w8, #0x3b800000 .long 0x72901028 // movk w8, #0x8081 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x2f10a610 // uxtl v16.4s, v16.4h .long 0x4e040d11 // dup v17.4s, w8 .long 0x6e21da10 // ucvtf v16.4s, v16.4s .long 0x6e31de10 // fmul v16.4s, v16.4s, v17.4s .long 0x6e20de00 // fmul v0.4s, v16.4s, v0.4s .long 0x6e21de01 // fmul v1.4s, v16.4s, v1.4s .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0x6e23de03 // fmul v3.4s, v16.4s, v3.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 1804 <_sk_scale_u8_aarch64+0xc0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e410 // movi d16, #0x0 .long 0x540000c0 // b.eq 17e4 <_sk_scale_u8_aarch64+0xa0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffd61 // b.ne 1780 <_sk_scale_u8_aarch64+0x3c> // b.any .long 0x39400909 // ldrb w9, [x8, #2] .long 0x0e020ff0 // dup v16.4h, wzr .long 0x4e0a1d30 // mov v16.h[2], w9 .long 0x39400109 // ldrb w9, [x8] .long 0x39400508 // ldrb w8, [x8, #1] .long 0x4e041d31 // mov v17.s[0], w9 .long 0x4e0c1d11 // mov v17.s[1], w8 .long 0x0e401a31 // uzp1 v17.4h, v17.4h, v0.4h .long 0x2e112210 // ext v16.8b, v16.8b, v17.8b, #4 .long 0x2e102210 // ext v16.8b, v16.8b, v16.8b, #4 .long 0x17ffffe0 // b 1780 <_sk_scale_u8_aarch64+0x3c> .long 0x39400108 // ldrb w8, [x8] .long 0x0e020ff0 // dup v16.4h, wzr .long 0x4e021d10 // mov v16.h[0], w8 .long 0x17ffffdc // b 1780 <_sk_scale_u8_aarch64+0x3c> HIDDEN _sk_lerp_1_float_aarch64 .globl _sk_lerp_1_float_aarch64 FUNCTION(_sk_lerp_1_float_aarch64) _sk_lerp_1_float_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea4d411 // fsub v17.4s, v0.4s, v4.4s .long 0x4ea41c80 // mov v0.16b, v4.16b .long 0x4ea5d432 // fsub v18.4s, v1.4s, v5.4s .long 0xbd400110 // ldr s16, [x8] .long 0x4ea51ca1 // mov v1.16b, v5.16b .long 0x4f901220 // fmla v0.4s, v17.4s, v16.s[0] .long 0x4ea6d451 // fsub v17.4s, v2.4s, v6.4s .long 0x4f901241 // fmla v1.4s, v18.4s, v16.s[0] .long 0x4ea61cc2 // mov v2.16b, v6.16b .long 0x4ea7d472 // fsub v18.4s, v3.4s, v7.4s .long 0x4ea71ce3 // mov v3.16b, v7.16b .long 0x4f901222 // fmla v2.4s, v17.4s, v16.s[0] .long 0x4f901243 // fmla v3.4s, v18.4s, v16.s[0] .long 0xd61f00a0 // br x5 HIDDEN _sk_lerp_u8_aarch64 .globl _sk_lerp_u8_aarch64 FUNCTION(_sk_lerp_u8_aarch64) _sk_lerp_u8_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb50003e4 // cbnz x4, 18e4 <_sk_lerp_u8_aarch64+0x94> .long 0x39400109 // ldrb w9, [x8] .long 0x3940050a // ldrb w10, [x8, #1] .long 0x3940090b // ldrb w11, [x8, #2] .long 0x39400d08 // ldrb w8, [x8, #3] .long 0x4e021d30 // mov v16.h[0], w9 .long 0x4e061d50 // mov v16.h[1], w10 .long 0x4e0a1d70 // mov v16.h[2], w11 .long 0x4e0e1d10 // mov v16.h[3], w8 .long 0x2f07b7f0 // bic v16.4h, #0xff, lsl #8 .long 0x52a77008 // mov w8, #0x3b800000 .long 0x72901028 // movk w8, #0x8081 .long 0x4ea4d411 // fsub v17.4s, v0.4s, v4.4s .long 0x2f10a600 // uxtl v0.4s, v16.4h .long 0x4e040d10 // dup v16.4s, w8 .long 0x6e21d800 // ucvtf v0.4s, v0.4s .long 0xf9400425 // ldr x5, [x1, #8] .long 0x6e30dc10 // fmul v16.4s, v0.4s, v16.4s .long 0x4ea41c80 // mov v0.16b, v4.16b .long 0x4ea5d432 // fsub v18.4s, v1.4s, v5.4s .long 0x4ea51ca1 // mov v1.16b, v5.16b .long 0x4e31ce00 // fmla v0.4s, v16.4s, v17.4s .long 0x4ea6d451 // fsub v17.4s, v2.4s, v6.4s .long 0x4e32ce01 // fmla v1.4s, v16.4s, v18.4s .long 0x4ea61cc2 // mov v2.16b, v6.16b .long 0x4ea7d472 // fsub v18.4s, v3.4s, v7.4s .long 0x4ea71ce3 // mov v3.16b, v7.16b .long 0x4e31ce02 // fmla v2.4s, v16.4s, v17.4s .long 0x4e32ce03 // fmla v3.4s, v16.4s, v18.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 1930 <_sk_lerp_u8_aarch64+0xe0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e410 // movi d16, #0x0 .long 0x540000c0 // b.eq 1910 <_sk_lerp_u8_aarch64+0xc0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffc61 // b.ne 188c <_sk_lerp_u8_aarch64+0x3c> // b.any .long 0x39400909 // ldrb w9, [x8, #2] .long 0x0e020ff0 // dup v16.4h, wzr .long 0x4e0a1d30 // mov v16.h[2], w9 .long 0x39400109 // ldrb w9, [x8] .long 0x39400508 // ldrb w8, [x8, #1] .long 0x4e041d31 // mov v17.s[0], w9 .long 0x4e0c1d11 // mov v17.s[1], w8 .long 0x0e401a31 // uzp1 v17.4h, v17.4h, v0.4h .long 0x2e112210 // ext v16.8b, v16.8b, v17.8b, #4 .long 0x2e102210 // ext v16.8b, v16.8b, v16.8b, #4 .long 0x17ffffd8 // b 188c <_sk_lerp_u8_aarch64+0x3c> .long 0x39400108 // ldrb w8, [x8] .long 0x0e020ff0 // dup v16.4h, wzr .long 0x4e021d10 // mov v16.h[0], w8 .long 0x17ffffd4 // b 188c <_sk_lerp_u8_aarch64+0x3c> HIDDEN _sk_lerp_565_aarch64 .globl _sk_lerp_565_aarch64 FUNCTION(_sk_lerp_565_aarch64) _sk_lerp_565_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0xb50005c4 // cbnz x4, 1a14 <_sk_lerp_565_aarch64+0xd4> .long 0xfd400110 // ldr d16, [x8] .long 0x321b17e8 // orr w8, wzr, #0x7e0 .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a6f088 // mov w8, #0x37840000 .long 0x2f10a610 // uxtl v16.4s, v16.4h .long 0x4f072711 // movi v17.4s, #0xf8, lsl #8 .long 0x72842108 // movk w8, #0x2108 .long 0x4f0007f3 // movi v19.4s, #0x1f .long 0x4e311e11 // and v17.16b, v16.16b, v17.16b .long 0x4e331e13 // and v19.16b, v16.16b, v19.16b .long 0x4e321e10 // and v16.16b, v16.16b, v18.16b .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a7a088 // mov w8, #0x3d040000 .long 0x72842108 // movk w8, #0x2108 .long 0x4e21da31 // scvtf v17.4s, v17.4s .long 0x6e32de31 // fmul v17.4s, v17.4s, v18.4s .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a74048 // mov w8, #0x3a020000 .long 0x72810428 // movk w8, #0x821 .long 0x4ea4d414 // fsub v20.4s, v0.4s, v4.4s .long 0x4e21da60 // scvtf v0.4s, v19.4s .long 0x6e32dc12 // fmul v18.4s, v0.4s, v18.4s .long 0x4e040d00 // dup v0.4s, w8 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e20de10 // fmul v16.4s, v16.4s, v0.4s .long 0x4ea41c80 // mov v0.16b, v4.16b .long 0x4e34ce20 // fmla v0.4s, v17.4s, v20.4s .long 0x4ea7d463 // fsub v3.4s, v3.4s, v7.4s .long 0x4ea71cf4 // mov v20.16b, v7.16b .long 0x4ea5d433 // fsub v19.4s, v1.4s, v5.4s .long 0x4ea6d441 // fsub v1.4s, v2.4s, v6.4s .long 0x4ea61cc2 // mov v2.16b, v6.16b .long 0x4e23ce34 // fmla v20.4s, v17.4s, v3.4s .long 0x4ea71cf1 // mov v17.16b, v7.16b .long 0x4e21ce42 // fmla v2.4s, v18.4s, v1.4s .long 0x4e23ce51 // fmla v17.4s, v18.4s, v3.4s .long 0x4ea71cf2 // mov v18.16b, v7.16b .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4e23ce12 // fmla v18.4s, v16.4s, v3.4s .long 0x4ea51ca1 // mov v1.16b, v5.16b .long 0x4e31f643 // fmax v3.4s, v18.4s, v17.4s .long 0x4e33ce01 // fmla v1.4s, v16.4s, v19.4s .long 0x4e23f683 // fmax v3.4s, v20.4s, v3.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 1a60 <_sk_lerp_565_aarch64+0x120> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e410 // movi d16, #0x0 .long 0x540000c0 // b.eq 1a40 <_sk_lerp_565_aarch64+0x100> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fff9a1 // b.ne 1964 <_sk_lerp_565_aarch64+0x24> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0e020ff0 // dup v16.4h, wzr .long 0x0d405130 // ld1 {v16.h}[2], [x9] .long 0x79400109 // ldrh w9, [x8] .long 0x79400508 // ldrh w8, [x8, #2] .long 0x4e041d31 // mov v17.s[0], w9 .long 0x4e0c1d11 // mov v17.s[1], w8 .long 0x0e401a31 // uzp1 v17.4h, v17.4h, v0.4h .long 0x2e112210 // ext v16.8b, v16.8b, v17.8b, #4 .long 0x2e102210 // ext v16.8b, v16.8b, v16.8b, #4 .long 0x17ffffc2 // b 1964 <_sk_lerp_565_aarch64+0x24> .long 0x0e020ff0 // dup v16.4h, wzr .long 0x0d404110 // ld1 {v16.h}[0], [x8] .long 0x17ffffbf // b 1964 <_sk_lerp_565_aarch64+0x24> HIDDEN _sk_load_tables_aarch64 .globl _sk_load_tables_aarch64 FUNCTION(_sk_load_tables_aarch64) _sk_load_tables_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xf9400109 // ldr x9, [x8] .long 0x8b020929 // add x9, x9, x2, lsl #2 .long 0xb50006e4 // cbnz x4, 1b54 <_sk_load_tables_aarch64+0xe8> .long 0x3dc00122 // ldr q2, [x9] .long 0xa940a909 // ldp x9, x10, [x8, #8] .long 0x6f00e620 // movi v0.2d, #0xff000000ff .long 0x6f380441 // ushr v1.4s, v2.4s, #8 .long 0x4e201c50 // and v16.16b, v2.16b, v0.16b .long 0x4e201c21 // and v1.16b, v1.16b, v0.16b .long 0x1e26020e // fmov w14, s16 .long 0xf9400d08 // ldr x8, [x8, #24] .long 0x6f300443 // ushr v3.4s, v2.4s, #16 .long 0x1e260025 // fmov w5, s1 .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x52a7700b // mov w11, #0x3b800000 .long 0x4e201c63 // and v3.16b, v3.16b, v0.16b .long 0x0d4081c0 // ld1 {v0.s}[0], [x14] .long 0x8b254945 // add x5, x10, w5, uxtw #2 .long 0x7290102b // movk w11, #0x8081 .long 0x0e0c3c2f // mov w15, v1.s[1] .long 0x0e143c30 // mov w16, v1.s[2] .long 0x0e1c3c31 // mov w17, v1.s[3] .long 0x0d4080a1 // ld1 {v1.s}[0], [x5] .long 0x4e040d71 // dup v17.4s, w11 .long 0x0e0c3e0b // mov w11, v16.s[1] .long 0x1e26006e // fmov w14, s3 .long 0x6f280442 // ushr v2.4s, v2.4s, #24 .long 0x0e143e0c // mov w12, v16.s[2] .long 0xbc705952 // ldr s18, [x10, w16, uxtw #2] .long 0x0e143c70 // mov w16, v3.s[2] .long 0x4e21d842 // scvtf v2.4s, v2.4s .long 0x8b2e490e // add x14, x8, w14, uxtw #2 .long 0x8b2b492b // add x11, x9, w11, uxtw #2 .long 0x0e1c3e0d // mov w13, v16.s[3] .long 0xbc6c5930 // ldr s16, [x9, w12, uxtw #2] .long 0x0e0c3c6c // mov w12, v3.s[1] .long 0xbc705913 // ldr s19, [x8, w16, uxtw #2] .long 0x0e1c3c70 // mov w16, v3.s[3] .long 0x6e31dc43 // fmul v3.4s, v2.4s, v17.4s .long 0x0d4081c2 // ld1 {v2.s}[0], [x14] .long 0x0d409160 // ld1 {v0.s}[1], [x11] .long 0x8b2f494b // add x11, x10, w15, uxtw #2 .long 0x0d409161 // ld1 {v1.s}[1], [x11] .long 0x8b2c490b // add x11, x8, w12, uxtw #2 .long 0x0d409162 // ld1 {v2.s}[1], [x11] .long 0x6e140600 // mov v0.s[2], v16.s[0] .long 0xbc6d5930 // ldr s16, [x9, w13, uxtw #2] .long 0x6e140641 // mov v1.s[2], v18.s[0] .long 0xbc715951 // ldr s17, [x10, w17, uxtw #2] .long 0xbc705912 // ldr s18, [x8, w16, uxtw #2] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x6e140662 // mov v2.s[2], v19.s[0] .long 0x6e1c0600 // mov v0.s[3], v16.s[0] .long 0x6e1c0621 // mov v1.s[3], v17.s[0] .long 0x6e1c0642 // mov v2.s[3], v18.s[0] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x1200048a // and w10, w4, #0x3 .long 0x7100055f // cmp w10, #0x1 .long 0x540001a0 // b.eq 1b90 <_sk_load_tables_aarch64+0x124> // b.none .long 0x7100095f // cmp w10, #0x2 .long 0x6f00e402 // movi v2.2d, #0x0 .long 0x540000c0 // b.eq 1b80 <_sk_load_tables_aarch64+0x114> // b.none .long 0x71000d5f // cmp w10, #0x3 .long 0x54fff881 // b.ne 1a80 <_sk_load_tables_aarch64+0x14> // b.any .long 0x9100212a // add x10, x9, #0x8 .long 0x4e040fe2 // dup v2.4s, wzr .long 0x4d408142 // ld1 {v2.s}[2], [x10] .long 0xfd400120 // ldr d0, [x9] .long 0x6e004040 // ext v0.16b, v2.16b, v0.16b, #8 .long 0x6e004002 // ext v2.16b, v0.16b, v0.16b, #8 .long 0x17ffffbd // b 1a80 <_sk_load_tables_aarch64+0x14> .long 0x4e040fe2 // dup v2.4s, wzr .long 0x0d408122 // ld1 {v2.s}[0], [x9] .long 0x17ffffba // b 1a80 <_sk_load_tables_aarch64+0x14> HIDDEN _sk_load_tables_u16_be_aarch64 .globl _sk_load_tables_u16_be_aarch64 FUNCTION(_sk_load_tables_u16_be_aarch64) _sk_load_tables_u16_be_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xf9400109 // ldr x9, [x8] .long 0x8b020d29 // add x9, x9, x2, lsl #3 .long 0xb5000744 // cbnz x4, 1c90 <_sk_load_tables_u16_be_aarch64+0xf4> .long 0x0c400520 // ld4 {v0.4h-v3.4h}, [x9] .long 0xa940a909 // ldp x9, x10, [x8, #8] .long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8 .long 0x52a6f00b // mov w11, #0x37800000 .long 0x7280100b // movk w11, #0x80 .long 0x2f10a410 // uxtl v16.4s, v0.4h .long 0x2f07b7e1 // bic v1.4h, #0xff, lsl #8 .long 0xf9400d08 // ldr x8, [x8, #24] .long 0x4e040d71 // dup v17.4s, w11 .long 0x0e0c3e0b // mov w11, v16.s[1] .long 0x0e143e0c // mov w12, v16.s[2] .long 0x0e1c3e0d // mov w13, v16.s[3] .long 0x1e26020e // fmov w14, s16 .long 0x2f10a430 // uxtl v16.4s, v1.4h .long 0x2f07b7e2 // bic v2.4h, #0xff, lsl #8 .long 0x0e0c3e0f // mov w15, v16.s[1] .long 0xbc6c5932 // ldr s18, [x9, w12, uxtw #2] .long 0x0e143e0c // mov w12, v16.s[2] .long 0xbc6d5933 // ldr s19, [x9, w13, uxtw #2] .long 0x0e1c3e0d // mov w13, v16.s[3] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x8b2b4929 // add x9, x9, w11, uxtw #2 .long 0x1e26020b // fmov w11, s16 .long 0x2f10a450 // uxtl v16.4s, v2.4h .long 0x0f185474 // shl v20.4h, v3.4h, #8 .long 0x2f180462 // ushr v2.4h, v3.4h, #8 .long 0x0ea21e82 // orr v2.8b, v20.8b, v2.8b .long 0x8b2b494b // add x11, x10, w11, uxtw #2 .long 0x0d4081c0 // ld1 {v0.s}[0], [x14] .long 0x1e26020e // fmov w14, s16 .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x0d408161 // ld1 {v1.s}[0], [x11] .long 0x8b2e490b // add x11, x8, w14, uxtw #2 .long 0x6e21d842 // ucvtf v2.4s, v2.4s .long 0x6e31dc43 // fmul v3.4s, v2.4s, v17.4s .long 0x0d408162 // ld1 {v2.s}[0], [x11] .long 0x8b2f494f // add x15, x10, w15, uxtw #2 .long 0xbc6c5955 // ldr s21, [x10, w12, uxtw #2] .long 0xbc6d5956 // ldr s22, [x10, w13, uxtw #2] .long 0x0e0c3e0a // mov w10, v16.s[1] .long 0x0e143e0c // mov w12, v16.s[2] .long 0x0d409120 // ld1 {v0.s}[1], [x9] .long 0x8b2a4909 // add x9, x8, w10, uxtw #2 .long 0x0e1c3e0d // mov w13, v16.s[3] .long 0xbc6c5910 // ldr s16, [x8, w12, uxtw #2] .long 0x0d4091e1 // ld1 {v1.s}[1], [x15] .long 0x0d409122 // ld1 {v2.s}[1], [x9] .long 0xbc6d5911 // ldr s17, [x8, w13, uxtw #2] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x6e140640 // mov v0.s[2], v18.s[0] .long 0x6e1406a1 // mov v1.s[2], v21.s[0] .long 0x6e140602 // mov v2.s[2], v16.s[0] .long 0x6e1c0660 // mov v0.s[3], v19.s[0] .long 0x6e1c06c1 // mov v1.s[3], v22.s[0] .long 0x6e1c0622 // mov v2.s[3], v17.s[0] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x0d606120 // ld4 {v0.h-v3.h}[0], [x9] .long 0xf100049f // cmp x4, #0x1 .long 0x54fff8c0 // b.eq 1bb0 <_sk_load_tables_u16_be_aarch64+0x14> // b.none .long 0x9100212a // add x10, x9, #0x8 .long 0x0d606940 // ld4 {v0.h-v3.h}[1], [x10] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fff843 // b.cc 1bb0 <_sk_load_tables_u16_be_aarch64+0x14> // b.lo, b.ul, b.last .long 0x91004129 // add x9, x9, #0x10 .long 0x0d607120 // ld4 {v0.h-v3.h}[2], [x9] .long 0x17ffffbf // b 1bb0 <_sk_load_tables_u16_be_aarch64+0x14> HIDDEN _sk_load_tables_rgb_u16_be_aarch64 .globl _sk_load_tables_rgb_u16_be_aarch64 FUNCTION(_sk_load_tables_rgb_u16_be_aarch64) _sk_load_tables_rgb_u16_be_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x321f07ea // orr w10, wzr, #0x6 .long 0xf9400109 // ldr x9, [x8] .long 0x9b0a2449 // madd x9, x2, x10, x9 .long 0xb5000664 // cbnz x4, 1d94 <_sk_load_tables_rgb_u16_be_aarch64+0xdc> .long 0x0c404520 // ld3 {v0.4h-v2.4h}, [x9] .long 0xa940a909 // ldp x9, x10, [x8, #8] .long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8 .long 0x2f10a403 // uxtl v3.4s, v0.4h .long 0x2f07b7e1 // bic v1.4h, #0xff, lsl #8 .long 0xf9400d0b // ldr x11, [x8, #24] .long 0x0e0c3c68 // mov w8, v3.s[1] .long 0x0e143c6c // mov w12, v3.s[2] .long 0x0e1c3c6d // mov w13, v3.s[3] .long 0x1e26006e // fmov w14, s3 .long 0x2f10a423 // uxtl v3.4s, v1.4h .long 0x2f07b7e2 // bic v2.4h, #0xff, lsl #8 .long 0xbc6c5930 // ldr s16, [x9, w12, uxtw #2] .long 0xbc6d5931 // ldr s17, [x9, w13, uxtw #2] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x1e260069 // fmov w9, s3 .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x8b294949 // add x9, x10, w9, uxtw #2 .long 0x0d4081c0 // ld1 {v0.s}[0], [x14] .long 0x0e143c4e // mov w14, v2.s[2] .long 0x0d408121 // ld1 {v1.s}[0], [x9] .long 0xbc6e5972 // ldr s18, [x11, w14, uxtw #2] .long 0x1e26004e // fmov w14, s2 .long 0x0e0c3c6f // mov w15, v3.s[1] .long 0x0e143c6c // mov w12, v3.s[2] .long 0x8b2e496e // add x14, x11, w14, uxtw #2 .long 0x0e1c3c6d // mov w13, v3.s[3] .long 0xbc6c5943 // ldr s3, [x10, w12, uxtw #2] .long 0x0e0c3c4c // mov w12, v2.s[1] .long 0x0e1c3c49 // mov w9, v2.s[3] .long 0x0d4081c2 // ld1 {v2.s}[0], [x14] .long 0x0d409100 // ld1 {v0.s}[1], [x8] .long 0x8b2f4948 // add x8, x10, w15, uxtw #2 .long 0x0d409101 // ld1 {v1.s}[1], [x8] .long 0x8b2c4968 // add x8, x11, w12, uxtw #2 .long 0x0d409102 // ld1 {v2.s}[1], [x8] .long 0x6e140600 // mov v0.s[2], v16.s[0] .long 0xbc6d5950 // ldr s16, [x10, w13, uxtw #2] .long 0x6e140461 // mov v1.s[2], v3.s[0] .long 0xbc695963 // ldr s3, [x11, w9, uxtw #2] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004028 // add x8, x1, #0x10 .long 0x6e140642 // mov v2.s[2], v18.s[0] .long 0x6e1c0620 // mov v0.s[3], v17.s[0] .long 0x6e1c0601 // mov v1.s[3], v16.s[0] .long 0x6e1c0462 // mov v2.s[3], v3.s[0] .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0xaa0803e1 // mov x1, x8 .long 0xd61f00a0 // br x5 .long 0x0d406120 // ld3 {v0.h-v2.h}[0], [x9] .long 0xf100049f // cmp x4, #0x1 .long 0x54fff9a0 // b.eq 1cd0 <_sk_load_tables_rgb_u16_be_aarch64+0x18> // b.none .long 0x9100192a // add x10, x9, #0x6 .long 0x0d406940 // ld3 {v0.h-v2.h}[1], [x10] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fff923 // b.cc 1cd0 <_sk_load_tables_rgb_u16_be_aarch64+0x18> // b.lo, b.ul, b.last .long 0x91003129 // add x9, x9, #0xc .long 0x0d407120 // ld3 {v0.h-v2.h}[2], [x9] .long 0x17ffffc6 // b 1cd0 <_sk_load_tables_rgb_u16_be_aarch64+0x18> HIDDEN _sk_byte_tables_aarch64 .globl _sk_byte_tables_aarch64 FUNCTION(_sk_byte_tables_aarch64) _sk_byte_tables_aarch64: .long 0xd10103ff // sub sp, sp, #0x40 .long 0xaa0103e8 // mov x8, x1 .long 0x91002109 // add x9, x8, #0x8 .long 0xa9015ff8 // stp x24, x23, [sp, #16] .long 0xa90257f6 // stp x22, x21, [sp, #32] .long 0xa9034ff4 // stp x20, x19, [sp, #48] .long 0xf90007e9 // str x9, [sp, #8] .long 0xf8410429 // ldr x9, [x1], #16 .long 0x52a86fea // mov w10, #0x437f0000 .long 0x4e040d51 // dup v17.4s, w10 .long 0x52a7700b // mov w11, #0x3b800000 .long 0xa9405d34 // ldp x20, x23, [x9] .long 0x6e31dc00 // fmul v0.4s, v0.4s, v17.4s .long 0x7290102b // movk w11, #0x8081 .long 0x6e21a800 // fcvtnu v0.4s, v0.4s .long 0x4e040d70 // dup v16.4s, w11 .long 0x0e0c3c0a // mov w10, v0.s[1] .long 0x0e143c0b // mov w11, v0.s[2] .long 0x0e1c3c0c // mov w12, v0.s[3] .long 0x1e26000d // fmov w13, s0 .long 0x386d4a8d // ldrb w13, [x20, w13, uxtw] .long 0x386a4a8a // ldrb w10, [x20, w10, uxtw] .long 0x386b4a8b // ldrb w11, [x20, w11, uxtw] .long 0x386c4a8c // ldrb w12, [x20, w12, uxtw] .long 0xa9412534 // ldp x20, x9, [x9, #16] .long 0x6e31dc42 // fmul v2.4s, v2.4s, v17.4s .long 0x6e31dc21 // fmul v1.4s, v1.4s, v17.4s .long 0x6e31dc63 // fmul v3.4s, v3.4s, v17.4s .long 0x6e21a842 // fcvtnu v2.4s, v2.4s .long 0x6e21a821 // fcvtnu v1.4s, v1.4s .long 0x6e21a863 // fcvtnu v3.4s, v3.4s .long 0x0e0c3c45 // mov w5, v2.s[1] .long 0x0e143c46 // mov w6, v2.s[2] .long 0x0e1c3c47 // mov w7, v2.s[3] .long 0x1e260053 // fmov w19, s2 .long 0x1e260031 // fmov w17, s1 .long 0x38734a93 // ldrb w19, [x20, w19, uxtw] .long 0x38654a85 // ldrb w5, [x20, w5, uxtw] .long 0x38664a86 // ldrb w6, [x20, w6, uxtw] .long 0x38674a87 // ldrb w7, [x20, w7, uxtw] .long 0x1e260074 // fmov w20, s3 .long 0x0e0c3c2e // mov w14, v1.s[1] .long 0x0e0c3c75 // mov w21, v3.s[1] .long 0x38714af1 // ldrb w17, [x23, w17, uxtw] .long 0x38744934 // ldrb w20, [x9, w20, uxtw] .long 0x0e143c2f // mov w15, v1.s[2] .long 0x0e1c3c30 // mov w16, v1.s[3] .long 0x0e143c76 // mov w22, v3.s[2] .long 0x386e4aee // ldrb w14, [x23, w14, uxtw] .long 0x38754935 // ldrb w21, [x9, w21, uxtw] .long 0x386f4aef // ldrb w15, [x23, w15, uxtw] .long 0x38704af0 // ldrb w16, [x23, w16, uxtw] .long 0x0e1c3c77 // mov w23, v3.s[3] .long 0x38764936 // ldrb w22, [x9, w22, uxtw] .long 0x38774929 // ldrb w9, [x9, w23, uxtw] .long 0x4e021da0 // mov v0.h[0], w13 .long 0x4e021e21 // mov v1.h[0], w17 .long 0x4e021e62 // mov v2.h[0], w19 .long 0x4e021e83 // mov v3.h[0], w20 .long 0x4e061d40 // mov v0.h[1], w10 .long 0x4e061dc1 // mov v1.h[1], w14 .long 0x4e061ca2 // mov v2.h[1], w5 .long 0x4e061ea3 // mov v3.h[1], w21 .long 0x4e0a1d60 // mov v0.h[2], w11 .long 0x4e0a1de1 // mov v1.h[2], w15 .long 0x4e0a1cc2 // mov v2.h[2], w6 .long 0x4e0a1ec3 // mov v3.h[2], w22 .long 0x4e0e1d80 // mov v0.h[3], w12 .long 0x4e0e1e01 // mov v1.h[3], w16 .long 0x4e0e1ce2 // mov v2.h[3], w7 .long 0x4e0e1d23 // mov v3.h[3], w9 .long 0xf9400505 // ldr x5, [x8, #8] .long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8 .long 0x2f07b7e1 // bic v1.4h, #0xff, lsl #8 .long 0x2f07b7e2 // bic v2.4h, #0xff, lsl #8 .long 0x2f07b7e3 // bic v3.4h, #0xff, lsl #8 .long 0xa9434ff4 // ldp x20, x19, [sp, #48] .long 0xa94257f6 // ldp x22, x21, [sp, #32] .long 0xa9415ff8 // ldp x24, x23, [sp, #16] .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x2f10a421 // uxtl v1.4s, v1.4h .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x2f10a463 // uxtl v3.4s, v3.4h .long 0x6e21d800 // ucvtf v0.4s, v0.4s .long 0x6e21d821 // ucvtf v1.4s, v1.4s .long 0x6e21d842 // ucvtf v2.4s, v2.4s .long 0x6e21d863 // ucvtf v3.4s, v3.4s .long 0x6e30dc00 // fmul v0.4s, v0.4s, v16.4s .long 0x6e30dc21 // fmul v1.4s, v1.4s, v16.4s .long 0x6e30dc42 // fmul v2.4s, v2.4s, v16.4s .long 0x6e30dc63 // fmul v3.4s, v3.4s, v16.4s .long 0x910103ff // add sp, sp, #0x40 .long 0xd61f00a0 // br x5 HIDDEN _sk_byte_tables_rgb_aarch64 .globl _sk_byte_tables_rgb_aarch64 FUNCTION(_sk_byte_tables_rgb_aarch64) _sk_byte_tables_rgb_aarch64: .long 0xa9bf4ff4 // stp x20, x19, [sp, #-16]! .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x52a77009 // mov w9, #0x3b800000 .long 0x72901029 // movk w9, #0x8081 .long 0x4e040d30 // dup v16.4s, w9 .long 0xb9401909 // ldr w9, [x8, #24] .long 0xa9402d0a // ldp x10, x11, [x8] .long 0xf9400908 // ldr x8, [x8, #16] .long 0x51000529 // sub w9, w9, #0x1 .long 0x4e040d31 // dup v17.4s, w9 .long 0x4e21da31 // scvtf v17.4s, v17.4s .long 0x6e21de21 // fmul v1.4s, v17.4s, v1.4s .long 0x6e20de20 // fmul v0.4s, v17.4s, v0.4s .long 0x6e22de22 // fmul v2.4s, v17.4s, v2.4s .long 0x6e21a821 // fcvtnu v1.4s, v1.4s .long 0x6e21a800 // fcvtnu v0.4s, v0.4s .long 0x6e21a842 // fcvtnu v2.4s, v2.4s .long 0x0e0c3c2f // mov w15, v1.s[1] .long 0x0e143c30 // mov w16, v1.s[2] .long 0x0e1c3c31 // mov w17, v1.s[3] .long 0x1e260026 // fmov w6, s1 .long 0x1e26000e // fmov w14, s0 .long 0x38664966 // ldrb w6, [x11, w6, uxtw] .long 0x386f496f // ldrb w15, [x11, w15, uxtw] .long 0x38704970 // ldrb w16, [x11, w16, uxtw] .long 0x3871496b // ldrb w11, [x11, w17, uxtw] .long 0x1e260051 // fmov w17, s2 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x386e494e // ldrb w14, [x10, w14, uxtw] .long 0x0e0c3c47 // mov w7, v2.s[1] .long 0x38714911 // ldrb w17, [x8, w17, uxtw] .long 0x0e143c0c // mov w12, v0.s[2] .long 0x0e1c3c0d // mov w13, v0.s[3] .long 0x0e143c53 // mov w19, v2.s[2] .long 0x38694949 // ldrb w9, [x10, w9, uxtw] .long 0x38674907 // ldrb w7, [x8, w7, uxtw] .long 0x386c494c // ldrb w12, [x10, w12, uxtw] .long 0x386d494a // ldrb w10, [x10, w13, uxtw] .long 0x0e1c3c4d // mov w13, v2.s[3] .long 0x38734913 // ldrb w19, [x8, w19, uxtw] .long 0x386d4908 // ldrb w8, [x8, w13, uxtw] .long 0x4e021dc0 // mov v0.h[0], w14 .long 0x4e021cc1 // mov v1.h[0], w6 .long 0x4e021e22 // mov v2.h[0], w17 .long 0x4e061d20 // mov v0.h[1], w9 .long 0x4e061de1 // mov v1.h[1], w15 .long 0x4e061ce2 // mov v2.h[1], w7 .long 0x4e0a1d80 // mov v0.h[2], w12 .long 0x4e0a1e01 // mov v1.h[2], w16 .long 0x4e0a1e62 // mov v2.h[2], w19 .long 0x4e0e1d40 // mov v0.h[3], w10 .long 0x4e0e1d61 // mov v1.h[3], w11 .long 0x4e0e1d02 // mov v2.h[3], w8 .long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8 .long 0x2f07b7e1 // bic v1.4h, #0xff, lsl #8 .long 0x2f07b7e2 // bic v2.4h, #0xff, lsl #8 .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x2f10a421 // uxtl v1.4s, v1.4h .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x6e21d800 // ucvtf v0.4s, v0.4s .long 0x6e21d821 // ucvtf v1.4s, v1.4s .long 0x6e21d842 // ucvtf v2.4s, v2.4s .long 0x6e30dc00 // fmul v0.4s, v0.4s, v16.4s .long 0x6e30dc21 // fmul v1.4s, v1.4s, v16.4s .long 0x6e30dc42 // fmul v2.4s, v2.4s, v16.4s .long 0xa8c14ff4 // ldp x20, x19, [sp], #16 .long 0xd61f00a0 // br x5 HIDDEN _sk_table_r_aarch64 .globl _sk_table_r_aarch64 FUNCTION(_sk_table_r_aarch64) _sk_table_r_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x51000529 // sub w9, w9, #0x1 .long 0x4e040d30 // dup v16.4s, w9 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e20de00 // fmul v0.4s, v16.4s, v0.4s .long 0x6e21a810 // fcvtnu v16.4s, v0.4s .long 0x1e26020b // fmov w11, s16 .long 0x8b2b490b // add x11, x8, w11, uxtw #2 .long 0x0d408160 // ld1 {v0.s}[0], [x11] .long 0x0e0c3e09 // mov w9, v16.s[1] .long 0x0e143e0a // mov w10, v16.s[2] .long 0x8b294909 // add x9, x8, w9, uxtw #2 .long 0x0e1c3e0b // mov w11, v16.s[3] .long 0xbc6a5910 // ldr s16, [x8, w10, uxtw #2] .long 0x0d409120 // ld1 {v0.s}[1], [x9] .long 0xbc6b5911 // ldr s17, [x8, w11, uxtw #2] .long 0x6e140600 // mov v0.s[2], v16.s[0] .long 0x6e1c0620 // mov v0.s[3], v17.s[0] .long 0xd61f00a0 // br x5 HIDDEN _sk_table_g_aarch64 .globl _sk_table_g_aarch64 FUNCTION(_sk_table_g_aarch64) _sk_table_g_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x51000529 // sub w9, w9, #0x1 .long 0x4e040d30 // dup v16.4s, w9 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e21de01 // fmul v1.4s, v16.4s, v1.4s .long 0x6e21a830 // fcvtnu v16.4s, v1.4s .long 0x1e26020b // fmov w11, s16 .long 0x8b2b490b // add x11, x8, w11, uxtw #2 .long 0x0d408161 // ld1 {v1.s}[0], [x11] .long 0x0e0c3e09 // mov w9, v16.s[1] .long 0x0e143e0a // mov w10, v16.s[2] .long 0x8b294909 // add x9, x8, w9, uxtw #2 .long 0x0e1c3e0b // mov w11, v16.s[3] .long 0xbc6a5910 // ldr s16, [x8, w10, uxtw #2] .long 0x0d409121 // ld1 {v1.s}[1], [x9] .long 0xbc6b5911 // ldr s17, [x8, w11, uxtw #2] .long 0x6e140601 // mov v1.s[2], v16.s[0] .long 0x6e1c0621 // mov v1.s[3], v17.s[0] .long 0xd61f00a0 // br x5 HIDDEN _sk_table_b_aarch64 .globl _sk_table_b_aarch64 FUNCTION(_sk_table_b_aarch64) _sk_table_b_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x51000529 // sub w9, w9, #0x1 .long 0x4e040d30 // dup v16.4s, w9 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0x6e21a850 // fcvtnu v16.4s, v2.4s .long 0x1e26020b // fmov w11, s16 .long 0x8b2b490b // add x11, x8, w11, uxtw #2 .long 0x0d408162 // ld1 {v2.s}[0], [x11] .long 0x0e0c3e09 // mov w9, v16.s[1] .long 0x0e143e0a // mov w10, v16.s[2] .long 0x8b294909 // add x9, x8, w9, uxtw #2 .long 0x0e1c3e0b // mov w11, v16.s[3] .long 0xbc6a5910 // ldr s16, [x8, w10, uxtw #2] .long 0x0d409122 // ld1 {v2.s}[1], [x9] .long 0xbc6b5911 // ldr s17, [x8, w11, uxtw #2] .long 0x6e140602 // mov v2.s[2], v16.s[0] .long 0x6e1c0622 // mov v2.s[3], v17.s[0] .long 0xd61f00a0 // br x5 HIDDEN _sk_table_a_aarch64 .globl _sk_table_a_aarch64 FUNCTION(_sk_table_a_aarch64) _sk_table_a_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x51000529 // sub w9, w9, #0x1 .long 0x4e040d30 // dup v16.4s, w9 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e23de03 // fmul v3.4s, v16.4s, v3.4s .long 0x6e21a870 // fcvtnu v16.4s, v3.4s .long 0x1e26020b // fmov w11, s16 .long 0x8b2b490b // add x11, x8, w11, uxtw #2 .long 0x0d408163 // ld1 {v3.s}[0], [x11] .long 0x0e0c3e09 // mov w9, v16.s[1] .long 0x0e143e0a // mov w10, v16.s[2] .long 0x8b294909 // add x9, x8, w9, uxtw #2 .long 0x0e1c3e0b // mov w11, v16.s[3] .long 0xbc6a5910 // ldr s16, [x8, w10, uxtw #2] .long 0x0d409123 // ld1 {v3.s}[1], [x9] .long 0xbc6b5911 // ldr s17, [x8, w11, uxtw #2] .long 0x6e140603 // mov v3.s[2], v16.s[0] .long 0x6e1c0623 // mov v3.s[3], v17.s[0] .long 0xd61f00a0 // br x5 HIDDEN _sk_parametric_r_aarch64 .globl _sk_parametric_r_aarch64 FUNCTION(_sk_parametric_r_aarch64) _sk_parametric_r_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f016696 // movi v22.4s, #0x34, lsl #24 .long 0x91004109 // add x9, x8, #0x10 .long 0x9100610a // add x10, x8, #0x18 .long 0x4d40c932 // ld1r {v18.4s}, [x9] .long 0xaa0803e9 // mov x9, x8 .long 0xbd400d11 // ldr s17, [x8, #12] .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x4ddfc933 // ld1r {v19.4s}, [x9], #4 .long 0x9100210a // add x10, x8, #0x8 .long 0x4d40c954 // ld1r {v20.4s}, [x10] .long 0x4f911010 // fmla v16.4s, v0.4s, v17.s[0] .long 0xbd400135 // ldr s21, [x9] .long 0x52b85f09 // mov w9, #0xc2f80000 .long 0x728e6ee9 // movk w9, #0x7377 .long 0x4e040d37 // dup v23.4s, w9 .long 0x52a7f7e9 // mov w9, #0x3fbf0000 .long 0x7297eea9 // movk w9, #0xbf75 .long 0x4f951014 // fmla v20.4s, v0.4s, v21.s[0] .long 0x6e20e640 // fcmge v0.4s, v18.4s, v0.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a7d689 // mov w9, #0x3eb40000 .long 0x4f03d7f1 // movi v17.4s, #0x7f, msl #16 .long 0x72889f29 // movk w9, #0x44f9 .long 0x4e21da95 // scvtf v21.4s, v20.4s .long 0x4e311e91 // and v17.16b, v20.16b, v17.16b .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7fb89 // mov w9, #0x3fdc0000 .long 0x4e35ced7 // fmla v23.4s, v22.4s, v21.4s .long 0x729d3469 // movk w9, #0xe9a3 .long 0x4f0177f1 // orr v17.4s, #0x3f, lsl #24 .long 0x4eb2ce37 // fmls v23.4s, v17.4s, v18.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a85e49 // mov w9, #0x42f20000 .long 0x72918a29 // movk w9, #0x8c51 .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7f7c9 // mov w9, #0x3fbe0000 .long 0x729791a9 // movk w9, #0xbc8d .long 0x6e31fe51 // fdiv v17.4s, v18.4s, v17.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a81349 // mov w9, #0x409a0000 .long 0x4eb1d6f1 // fsub v17.4s, v23.4s, v17.4s .long 0x729ebf09 // movk w9, #0xf5f8 .long 0x6e31de71 // fmul v17.4s, v19.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x52a83ba9 // mov w9, #0x41dd0000 .long 0x4e219a33 // frintm v19.4s, v17.4s .long 0x729a5fc9 // movk w9, #0xd2fe .long 0x4e34d634 // fadd v20.4s, v17.4s, v20.4s .long 0x4eb3d631 // fsub v17.4s, v17.4s, v19.4s .long 0x4eb2ce34 // fmls v20.4s, v17.4s, v18.4s .long 0x4eb1d6b1 // fsub v17.4s, v21.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x91005108 // add x8, x8, #0x14 .long 0x6e31feb1 // fdiv v17.4s, v21.4s, v17.4s .long 0x4e31d691 // fadd v17.4s, v20.4s, v17.4s .long 0x4d40c914 // ld1r {v20.4s}, [x8] .long 0x4f026573 // movi v19.4s, #0x4b, lsl #24 .long 0x6e33de31 // fmul v17.4s, v17.4s, v19.4s .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x6f00e412 // movi v18.2d, #0x0 .long 0x6e711e00 // bsl v0.16b, v16.16b, v17.16b .long 0x4f03f615 // fmov v21.4s, #1.000000000000000000e+00 .long 0x4e32f400 // fmax v0.4s, v0.4s, v18.4s .long 0x4eb5f400 // fmin v0.4s, v0.4s, v21.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_parametric_g_aarch64 .globl _sk_parametric_g_aarch64 FUNCTION(_sk_parametric_g_aarch64) _sk_parametric_g_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f016696 // movi v22.4s, #0x34, lsl #24 .long 0x91004109 // add x9, x8, #0x10 .long 0x9100610a // add x10, x8, #0x18 .long 0x4d40c932 // ld1r {v18.4s}, [x9] .long 0xaa0803e9 // mov x9, x8 .long 0xbd400d11 // ldr s17, [x8, #12] .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x4ddfc933 // ld1r {v19.4s}, [x9], #4 .long 0x9100210a // add x10, x8, #0x8 .long 0x4d40c954 // ld1r {v20.4s}, [x10] .long 0x4f911030 // fmla v16.4s, v1.4s, v17.s[0] .long 0xbd400135 // ldr s21, [x9] .long 0x52b85f09 // mov w9, #0xc2f80000 .long 0x728e6ee9 // movk w9, #0x7377 .long 0x4e040d37 // dup v23.4s, w9 .long 0x52a7f7e9 // mov w9, #0x3fbf0000 .long 0x7297eea9 // movk w9, #0xbf75 .long 0x4f951034 // fmla v20.4s, v1.4s, v21.s[0] .long 0x6e21e641 // fcmge v1.4s, v18.4s, v1.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a7d689 // mov w9, #0x3eb40000 .long 0x4f03d7f1 // movi v17.4s, #0x7f, msl #16 .long 0x72889f29 // movk w9, #0x44f9 .long 0x4e21da95 // scvtf v21.4s, v20.4s .long 0x4e311e91 // and v17.16b, v20.16b, v17.16b .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7fb89 // mov w9, #0x3fdc0000 .long 0x4e35ced7 // fmla v23.4s, v22.4s, v21.4s .long 0x729d3469 // movk w9, #0xe9a3 .long 0x4f0177f1 // orr v17.4s, #0x3f, lsl #24 .long 0x4eb2ce37 // fmls v23.4s, v17.4s, v18.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a85e49 // mov w9, #0x42f20000 .long 0x72918a29 // movk w9, #0x8c51 .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7f7c9 // mov w9, #0x3fbe0000 .long 0x729791a9 // movk w9, #0xbc8d .long 0x6e31fe51 // fdiv v17.4s, v18.4s, v17.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a81349 // mov w9, #0x409a0000 .long 0x4eb1d6f1 // fsub v17.4s, v23.4s, v17.4s .long 0x729ebf09 // movk w9, #0xf5f8 .long 0x6e31de71 // fmul v17.4s, v19.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x52a83ba9 // mov w9, #0x41dd0000 .long 0x4e219a33 // frintm v19.4s, v17.4s .long 0x729a5fc9 // movk w9, #0xd2fe .long 0x4e34d634 // fadd v20.4s, v17.4s, v20.4s .long 0x4eb3d631 // fsub v17.4s, v17.4s, v19.4s .long 0x4eb2ce34 // fmls v20.4s, v17.4s, v18.4s .long 0x4eb1d6b1 // fsub v17.4s, v21.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x91005108 // add x8, x8, #0x14 .long 0x6e31feb1 // fdiv v17.4s, v21.4s, v17.4s .long 0x4e31d691 // fadd v17.4s, v20.4s, v17.4s .long 0x4d40c914 // ld1r {v20.4s}, [x8] .long 0x4f026573 // movi v19.4s, #0x4b, lsl #24 .long 0x6e33de31 // fmul v17.4s, v17.4s, v19.4s .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x6f00e412 // movi v18.2d, #0x0 .long 0x6e711e01 // bsl v1.16b, v16.16b, v17.16b .long 0x4f03f615 // fmov v21.4s, #1.000000000000000000e+00 .long 0x4e32f421 // fmax v1.4s, v1.4s, v18.4s .long 0x4eb5f421 // fmin v1.4s, v1.4s, v21.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_parametric_b_aarch64 .globl _sk_parametric_b_aarch64 FUNCTION(_sk_parametric_b_aarch64) _sk_parametric_b_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f016696 // movi v22.4s, #0x34, lsl #24 .long 0x91004109 // add x9, x8, #0x10 .long 0x9100610a // add x10, x8, #0x18 .long 0x4d40c932 // ld1r {v18.4s}, [x9] .long 0xaa0803e9 // mov x9, x8 .long 0xbd400d11 // ldr s17, [x8, #12] .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x4ddfc933 // ld1r {v19.4s}, [x9], #4 .long 0x9100210a // add x10, x8, #0x8 .long 0x4d40c954 // ld1r {v20.4s}, [x10] .long 0x4f911050 // fmla v16.4s, v2.4s, v17.s[0] .long 0xbd400135 // ldr s21, [x9] .long 0x52b85f09 // mov w9, #0xc2f80000 .long 0x728e6ee9 // movk w9, #0x7377 .long 0x4e040d37 // dup v23.4s, w9 .long 0x52a7f7e9 // mov w9, #0x3fbf0000 .long 0x7297eea9 // movk w9, #0xbf75 .long 0x4f951054 // fmla v20.4s, v2.4s, v21.s[0] .long 0x6e22e642 // fcmge v2.4s, v18.4s, v2.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a7d689 // mov w9, #0x3eb40000 .long 0x4f03d7f1 // movi v17.4s, #0x7f, msl #16 .long 0x72889f29 // movk w9, #0x44f9 .long 0x4e21da95 // scvtf v21.4s, v20.4s .long 0x4e311e91 // and v17.16b, v20.16b, v17.16b .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7fb89 // mov w9, #0x3fdc0000 .long 0x4e35ced7 // fmla v23.4s, v22.4s, v21.4s .long 0x729d3469 // movk w9, #0xe9a3 .long 0x4f0177f1 // orr v17.4s, #0x3f, lsl #24 .long 0x4eb2ce37 // fmls v23.4s, v17.4s, v18.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a85e49 // mov w9, #0x42f20000 .long 0x72918a29 // movk w9, #0x8c51 .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7f7c9 // mov w9, #0x3fbe0000 .long 0x729791a9 // movk w9, #0xbc8d .long 0x6e31fe51 // fdiv v17.4s, v18.4s, v17.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a81349 // mov w9, #0x409a0000 .long 0x4eb1d6f1 // fsub v17.4s, v23.4s, v17.4s .long 0x729ebf09 // movk w9, #0xf5f8 .long 0x6e31de71 // fmul v17.4s, v19.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x52a83ba9 // mov w9, #0x41dd0000 .long 0x4e219a33 // frintm v19.4s, v17.4s .long 0x729a5fc9 // movk w9, #0xd2fe .long 0x4e34d634 // fadd v20.4s, v17.4s, v20.4s .long 0x4eb3d631 // fsub v17.4s, v17.4s, v19.4s .long 0x4eb2ce34 // fmls v20.4s, v17.4s, v18.4s .long 0x4eb1d6b1 // fsub v17.4s, v21.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x91005108 // add x8, x8, #0x14 .long 0x6e31feb1 // fdiv v17.4s, v21.4s, v17.4s .long 0x4e31d691 // fadd v17.4s, v20.4s, v17.4s .long 0x4d40c914 // ld1r {v20.4s}, [x8] .long 0x4f026573 // movi v19.4s, #0x4b, lsl #24 .long 0x6e33de31 // fmul v17.4s, v17.4s, v19.4s .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x6f00e412 // movi v18.2d, #0x0 .long 0x6e711e02 // bsl v2.16b, v16.16b, v17.16b .long 0x4f03f615 // fmov v21.4s, #1.000000000000000000e+00 .long 0x4e32f442 // fmax v2.4s, v2.4s, v18.4s .long 0x4eb5f442 // fmin v2.4s, v2.4s, v21.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_parametric_a_aarch64 .globl _sk_parametric_a_aarch64 FUNCTION(_sk_parametric_a_aarch64) _sk_parametric_a_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f016696 // movi v22.4s, #0x34, lsl #24 .long 0x91004109 // add x9, x8, #0x10 .long 0x9100610a // add x10, x8, #0x18 .long 0x4d40c932 // ld1r {v18.4s}, [x9] .long 0xaa0803e9 // mov x9, x8 .long 0xbd400d11 // ldr s17, [x8, #12] .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x4ddfc933 // ld1r {v19.4s}, [x9], #4 .long 0x9100210a // add x10, x8, #0x8 .long 0x4d40c954 // ld1r {v20.4s}, [x10] .long 0x4f911070 // fmla v16.4s, v3.4s, v17.s[0] .long 0xbd400135 // ldr s21, [x9] .long 0x52b85f09 // mov w9, #0xc2f80000 .long 0x728e6ee9 // movk w9, #0x7377 .long 0x4e040d37 // dup v23.4s, w9 .long 0x52a7f7e9 // mov w9, #0x3fbf0000 .long 0x7297eea9 // movk w9, #0xbf75 .long 0x4f951074 // fmla v20.4s, v3.4s, v21.s[0] .long 0x6e23e643 // fcmge v3.4s, v18.4s, v3.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a7d689 // mov w9, #0x3eb40000 .long 0x4f03d7f1 // movi v17.4s, #0x7f, msl #16 .long 0x72889f29 // movk w9, #0x44f9 .long 0x4e21da95 // scvtf v21.4s, v20.4s .long 0x4e311e91 // and v17.16b, v20.16b, v17.16b .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7fb89 // mov w9, #0x3fdc0000 .long 0x4e35ced7 // fmla v23.4s, v22.4s, v21.4s .long 0x729d3469 // movk w9, #0xe9a3 .long 0x4f0177f1 // orr v17.4s, #0x3f, lsl #24 .long 0x4eb2ce37 // fmls v23.4s, v17.4s, v18.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a85e49 // mov w9, #0x42f20000 .long 0x72918a29 // movk w9, #0x8c51 .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a7f7c9 // mov w9, #0x3fbe0000 .long 0x729791a9 // movk w9, #0xbc8d .long 0x6e31fe51 // fdiv v17.4s, v18.4s, v17.4s .long 0x4e040d32 // dup v18.4s, w9 .long 0x52a81349 // mov w9, #0x409a0000 .long 0x4eb1d6f1 // fsub v17.4s, v23.4s, v17.4s .long 0x729ebf09 // movk w9, #0xf5f8 .long 0x6e31de71 // fmul v17.4s, v19.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x52a83ba9 // mov w9, #0x41dd0000 .long 0x4e219a33 // frintm v19.4s, v17.4s .long 0x729a5fc9 // movk w9, #0xd2fe .long 0x4e34d634 // fadd v20.4s, v17.4s, v20.4s .long 0x4eb3d631 // fsub v17.4s, v17.4s, v19.4s .long 0x4eb2ce34 // fmls v20.4s, v17.4s, v18.4s .long 0x4eb1d6b1 // fsub v17.4s, v21.4s, v17.4s .long 0x4e040d35 // dup v21.4s, w9 .long 0x91005108 // add x8, x8, #0x14 .long 0x6e31feb1 // fdiv v17.4s, v21.4s, v17.4s .long 0x4e31d691 // fadd v17.4s, v20.4s, v17.4s .long 0x4d40c914 // ld1r {v20.4s}, [x8] .long 0x4f026573 // movi v19.4s, #0x4b, lsl #24 .long 0x6e33de31 // fmul v17.4s, v17.4s, v19.4s .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4e34d631 // fadd v17.4s, v17.4s, v20.4s .long 0x6f00e412 // movi v18.2d, #0x0 .long 0x6e711e03 // bsl v3.16b, v16.16b, v17.16b .long 0x4f03f615 // fmov v21.4s, #1.000000000000000000e+00 .long 0x4e32f463 // fmax v3.4s, v3.4s, v18.4s .long 0x4eb5f463 // fmin v3.4s, v3.4s, v21.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_gamma_aarch64 .globl _sk_gamma_aarch64 FUNCTION(_sk_gamma_aarch64) _sk_gamma_aarch64: .long 0x52b85f08 // mov w8, #0xc2f80000 .long 0x728e6ee8 // movk w8, #0x7377 .long 0x4e040d10 // dup v16.4s, w8 .long 0x52a7d688 // mov w8, #0x3eb40000 .long 0x72889f28 // movk w8, #0x44f9 .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a85e48 // mov w8, #0x42f20000 .long 0x72918a28 // movk w8, #0x8c51 .long 0x4e040d13 // dup v19.4s, w8 .long 0x52a81348 // mov w8, #0x409a0000 .long 0x729ebf08 // movk w8, #0xf5f8 .long 0x4e040d15 // dup v21.4s, w8 .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x52a7f7e9 // mov w9, #0x3fbf0000 .long 0x4f01669a // movi v26.4s, #0x34, lsl #24 .long 0x4e21d85b // scvtf v27.4s, v2.4s .long 0x7297eea9 // movk w9, #0xbf75 .long 0x4eb01e1c // mov v28.16b, v16.16b .long 0x4eb01e1d // mov v29.16b, v16.16b .long 0x4e3bcf50 // fmla v16.4s, v26.4s, v27.4s .long 0x4f03d7fb // movi v27.4s, #0x7f, msl #16 .long 0x4e040d31 // dup v17.4s, w9 .long 0x52a7fb89 // mov w9, #0x3fdc0000 .long 0x4e21d819 // scvtf v25.4s, v0.4s .long 0x4e3b1c00 // and v0.16b, v0.16b, v27.16b .long 0x4e3b1c42 // and v2.16b, v2.16b, v27.16b .long 0x4e3b1c3b // and v27.16b, v1.16b, v27.16b .long 0x729d3469 // movk w9, #0xe9a3 .long 0xbd400118 // ldr s24, [x8] .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x4f0177e0 // orr v0.4s, #0x3f, lsl #24 .long 0x4f0177fb // orr v27.4s, #0x3f, lsl #24 .long 0x4f0177e2 // orr v2.4s, #0x3f, lsl #24 .long 0x4e040d37 // dup v23.4s, w9 .long 0x4e39cf5c // fmla v28.4s, v26.4s, v25.4s .long 0x4e21cf5d // fmla v29.4s, v26.4s, v1.4s .long 0x4e32d401 // fadd v1.4s, v0.4s, v18.4s .long 0x4e32d77a // fadd v26.4s, v27.4s, v18.4s .long 0x4eb1cc50 // fmls v16.4s, v2.4s, v17.4s .long 0x4e32d442 // fadd v2.4s, v2.4s, v18.4s .long 0x4eb1cc1c // fmls v28.4s, v0.4s, v17.4s .long 0x6e21fee0 // fdiv v0.4s, v23.4s, v1.4s .long 0x4eb1cf7d // fmls v29.4s, v27.4s, v17.4s .long 0x6e3afee1 // fdiv v1.4s, v23.4s, v26.4s .long 0x6e22fee2 // fdiv v2.4s, v23.4s, v2.4s .long 0x52a7f7c9 // mov w9, #0x3fbe0000 .long 0x4ea0d780 // fsub v0.4s, v28.4s, v0.4s .long 0x4ea1d7a1 // fsub v1.4s, v29.4s, v1.4s .long 0x4ea2d602 // fsub v2.4s, v16.4s, v2.4s .long 0x729791a9 // movk w9, #0xbc8d .long 0x4f989000 // fmul v0.4s, v0.4s, v24.s[0] .long 0x4f989021 // fmul v1.4s, v1.4s, v24.s[0] .long 0x4f989042 // fmul v2.4s, v2.4s, v24.s[0] .long 0x4e040d34 // dup v20.4s, w9 .long 0x52a83ba9 // mov w9, #0x41dd0000 .long 0x4e219810 // frintm v16.4s, v0.4s .long 0x4e219832 // frintm v18.4s, v1.4s .long 0x4e219858 // frintm v24.4s, v2.4s .long 0x729a5fc9 // movk w9, #0xd2fe .long 0x4e33d411 // fadd v17.4s, v0.4s, v19.4s .long 0x4e33d437 // fadd v23.4s, v1.4s, v19.4s .long 0x4e33d453 // fadd v19.4s, v2.4s, v19.4s .long 0x4eb0d400 // fsub v0.4s, v0.4s, v16.4s .long 0x4eb2d421 // fsub v1.4s, v1.4s, v18.4s .long 0x4eb8d442 // fsub v2.4s, v2.4s, v24.4s .long 0x4e040d36 // dup v22.4s, w9 .long 0x4eb4cc11 // fmls v17.4s, v0.4s, v20.4s .long 0x4ea0d6a0 // fsub v0.4s, v21.4s, v0.4s .long 0x4eb4cc37 // fmls v23.4s, v1.4s, v20.4s .long 0x4ea1d6a1 // fsub v1.4s, v21.4s, v1.4s .long 0x4eb4cc53 // fmls v19.4s, v2.4s, v20.4s .long 0x4ea2d6a2 // fsub v2.4s, v21.4s, v2.4s .long 0x6e20fec0 // fdiv v0.4s, v22.4s, v0.4s .long 0x6e21fec1 // fdiv v1.4s, v22.4s, v1.4s .long 0x6e22fec2 // fdiv v2.4s, v22.4s, v2.4s .long 0x4f026579 // movi v25.4s, #0x4b, lsl #24 .long 0x4e20d620 // fadd v0.4s, v17.4s, v0.4s .long 0x4e21d6e1 // fadd v1.4s, v23.4s, v1.4s .long 0x4e22d662 // fadd v2.4s, v19.4s, v2.4s .long 0x6e39dc00 // fmul v0.4s, v0.4s, v25.4s .long 0x6e39dc21 // fmul v1.4s, v1.4s, v25.4s .long 0x6e39dc42 // fmul v2.4s, v2.4s, v25.4s .long 0x6e21a800 // fcvtnu v0.4s, v0.4s .long 0x6e21a821 // fcvtnu v1.4s, v1.4s .long 0x6e21a842 // fcvtnu v2.4s, v2.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_lab_to_xyz_aarch64 .globl _sk_lab_to_xyz_aarch64 FUNCTION(_sk_lab_to_xyz_aarch64) _sk_lab_to_xyz_aarch64: .long 0x52a85908 // mov w8, #0x42c80000 .long 0x4e040d10 // dup v16.4s, w8 .long 0x52a86fe8 // mov w8, #0x437f0000 .long 0x4f066471 // movi v17.4s, #0xc3, lsl #24 .long 0x4e040d13 // dup v19.4s, w8 .long 0x52a781a8 // mov w8, #0x3c0d0000 .long 0x7287b968 // movk w8, #0x3dcb .long 0x4eb11e34 // mov v20.16b, v17.16b .long 0x4e21ce74 // fmla v20.4s, v19.4s, v1.4s .long 0x4e040d01 // dup v1.4s, w8 .long 0x52a76068 // mov w8, #0x3b030000 .long 0x72824de8 // movk w8, #0x126f .long 0x4e22ce71 // fmla v17.4s, v19.4s, v2.4s .long 0x4e040d02 // dup v2.4s, w8 .long 0x52a77468 // mov w8, #0x3ba30000 .long 0x729ae148 // movk w8, #0xd70a .long 0x4e040d13 // dup v19.4s, w8 .long 0x52a78228 // mov w8, #0x3c110000 .long 0x4f01f612 // fmov v18.4s, #1.600000000000000000e+01 .long 0x72831848 // movk w8, #0x18c2 .long 0x4e20ce12 // fmla v18.4s, v16.4s, v0.4s .long 0x4e040d00 // dup v0.4s, w8 .long 0x52b7c1a8 // mov w8, #0xbe0d0000 .long 0x7287b968 // movk w8, #0x3dcb .long 0x6e21de41 // fmul v1.4s, v18.4s, v1.4s .long 0x4e040d10 // dup v16.4s, w8 .long 0x52a7c068 // mov w8, #0x3e030000 .long 0x4ea11c32 // mov v18.16b, v1.16b .long 0x72900a08 // movk w8, #0x8050 .long 0x4eb3ce32 // fmls v18.4s, v17.4s, v19.4s .long 0x6e21dc31 // fmul v17.4s, v1.4s, v1.4s .long 0x4ea11c35 // mov v21.16b, v1.16b .long 0x4e30d433 // fadd v19.4s, v1.4s, v16.4s .long 0x6e31dc31 // fmul v17.4s, v1.4s, v17.4s .long 0x4e34cc55 // fmla v21.4s, v2.4s, v20.4s .long 0x4e040d02 // dup v2.4s, w8 .long 0x6e22de73 // fmul v19.4s, v19.4s, v2.4s .long 0x6ea0e621 // fcmgt v1.4s, v17.4s, v0.4s .long 0x6e731e21 // bsl v1.16b, v17.16b, v19.16b .long 0x6e32de51 // fmul v17.4s, v18.4s, v18.4s .long 0x4e30d653 // fadd v19.4s, v18.4s, v16.4s .long 0x6e31de51 // fmul v17.4s, v18.4s, v17.4s .long 0x52a7eec8 // mov w8, #0x3f760000 .long 0x6e22de72 // fmul v18.4s, v19.4s, v2.4s .long 0x6ea0e633 // fcmgt v19.4s, v17.4s, v0.4s .long 0x729ae3e8 // movk w8, #0xd71f .long 0x6e721e33 // bsl v19.16b, v17.16b, v18.16b .long 0x6e35deb2 // fmul v18.4s, v21.4s, v21.4s .long 0x4e040d11 // dup v17.4s, w8 .long 0x52a7ea68 // mov w8, #0x3f530000 .long 0x4e30d6b0 // fadd v16.4s, v21.4s, v16.4s .long 0x6e32deb2 // fmul v18.4s, v21.4s, v18.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x72881ec8 // movk w8, #0x40f6 .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0x6ea0e640 // fcmgt v0.4s, v18.4s, v0.4s .long 0x4e040d14 // dup v20.4s, w8 .long 0x6e621e40 // bsl v0.16b, v18.16b, v2.16b .long 0x6e31dc00 // fmul v0.4s, v0.4s, v17.4s .long 0x6e34de62 // fmul v2.4s, v19.4s, v20.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_load_a8_aarch64 .globl _sk_load_a8_aarch64 FUNCTION(_sk_load_a8_aarch64) _sk_load_a8_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb50002e4 // cbnz x4, 28ac <_sk_load_a8_aarch64+0x74> .long 0x39400109 // ldrb w9, [x8] .long 0x3940050a // ldrb w10, [x8, #1] .long 0x3940090b // ldrb w11, [x8, #2] .long 0x39400d08 // ldrb w8, [x8, #3] .long 0x4e021d22 // mov v2.h[0], w9 .long 0x4e061d42 // mov v2.h[1], w10 .long 0x4e0a1d62 // mov v2.h[2], w11 .long 0x4e0e1d02 // mov v2.h[3], w8 .long 0x2f07b7e2 // bic v2.4h, #0xff, lsl #8 .long 0x52a77008 // mov w8, #0x3b800000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72901028 // movk w8, #0x8081 .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x4e040d03 // dup v3.4s, w8 .long 0x91004028 // add x8, x1, #0x10 .long 0x6e21d842 // ucvtf v2.4s, v2.4s .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x6e23dc43 // fmul v3.4s, v2.4s, v3.4s .long 0x6f00e402 // movi v2.2d, #0x0 .long 0xaa0803e1 // mov x1, x8 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 28f8 <_sk_load_a8_aarch64+0xc0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e402 // movi d2, #0x0 .long 0x540000c0 // b.eq 28d8 <_sk_load_a8_aarch64+0xa0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffd61 // b.ne 2874 <_sk_load_a8_aarch64+0x3c> // b.any .long 0x39400909 // ldrb w9, [x8, #2] .long 0x0e020fe2 // dup v2.4h, wzr .long 0x4e0a1d22 // mov v2.h[2], w9 .long 0x39400109 // ldrb w9, [x8] .long 0x39400508 // ldrb w8, [x8, #1] .long 0x4e041d20 // mov v0.s[0], w9 .long 0x4e0c1d00 // mov v0.s[1], w8 .long 0x0e401800 // uzp1 v0.4h, v0.4h, v0.4h .long 0x2e002040 // ext v0.8b, v2.8b, v0.8b, #4 .long 0x2e002002 // ext v2.8b, v0.8b, v0.8b, #4 .long 0x17ffffe0 // b 2874 <_sk_load_a8_aarch64+0x3c> .long 0x39400108 // ldrb w8, [x8] .long 0x0e020fe2 // dup v2.4h, wzr .long 0x4e021d02 // mov v2.h[0], w8 .long 0x17ffffdc // b 2874 <_sk_load_a8_aarch64+0x3c> HIDDEN _sk_load_a8_dst_aarch64 .globl _sk_load_a8_dst_aarch64 FUNCTION(_sk_load_a8_dst_aarch64) _sk_load_a8_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb50002e4 // cbnz x4, 297c <_sk_load_a8_dst_aarch64+0x74> .long 0x39400109 // ldrb w9, [x8] .long 0x3940050a // ldrb w10, [x8, #1] .long 0x3940090b // ldrb w11, [x8, #2] .long 0x39400d08 // ldrb w8, [x8, #3] .long 0x4e021d26 // mov v6.h[0], w9 .long 0x4e061d46 // mov v6.h[1], w10 .long 0x4e0a1d66 // mov v6.h[2], w11 .long 0x4e0e1d06 // mov v6.h[3], w8 .long 0x2f07b7e6 // bic v6.4h, #0xff, lsl #8 .long 0x52a77008 // mov w8, #0x3b800000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72901028 // movk w8, #0x8081 .long 0x2f10a4c6 // uxtl v6.4s, v6.4h .long 0x4e040d07 // dup v7.4s, w8 .long 0x91004028 // add x8, x1, #0x10 .long 0x6e21d8c6 // ucvtf v6.4s, v6.4s .long 0x6f00e404 // movi v4.2d, #0x0 .long 0x6f00e405 // movi v5.2d, #0x0 .long 0x6e27dcc7 // fmul v7.4s, v6.4s, v7.4s .long 0x6f00e406 // movi v6.2d, #0x0 .long 0xaa0803e1 // mov x1, x8 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 29c8 <_sk_load_a8_dst_aarch64+0xc0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e406 // movi d6, #0x0 .long 0x540000c0 // b.eq 29a8 <_sk_load_a8_dst_aarch64+0xa0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffd61 // b.ne 2944 <_sk_load_a8_dst_aarch64+0x3c> // b.any .long 0x39400909 // ldrb w9, [x8, #2] .long 0x0e020fe6 // dup v6.4h, wzr .long 0x4e0a1d26 // mov v6.h[2], w9 .long 0x39400109 // ldrb w9, [x8] .long 0x39400508 // ldrb w8, [x8, #1] .long 0x4e041d24 // mov v4.s[0], w9 .long 0x4e0c1d04 // mov v4.s[1], w8 .long 0x0e401884 // uzp1 v4.4h, v4.4h, v0.4h .long 0x2e0420c4 // ext v4.8b, v6.8b, v4.8b, #4 .long 0x2e042086 // ext v6.8b, v4.8b, v4.8b, #4 .long 0x17ffffe0 // b 2944 <_sk_load_a8_dst_aarch64+0x3c> .long 0x39400108 // ldrb w8, [x8] .long 0x0e020fe6 // dup v6.4h, wzr .long 0x4e021d06 // mov v6.h[0], w8 .long 0x17ffffdc // b 2944 <_sk_load_a8_dst_aarch64+0x3c> HIDDEN _sk_gather_a8_aarch64 .globl _sk_gather_a8_aarch64 FUNCTION(_sk_gather_a8_aarch64) _sk_gather_a8_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x52a77009 // mov w9, #0x3b800000 .long 0x72901029 // movk w9, #0x8081 .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x1e26000c // fmov w12, s0 .long 0x4e040d23 // dup v3.4s, w9 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x386c490c // ldrb w12, [x8, w12, uxtw] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x38694909 // ldrb w9, [x8, w9, uxtw] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x386a490a // ldrb w10, [x8, w10, uxtw] .long 0x386b4908 // ldrb w8, [x8, w11, uxtw] .long 0x4e021d82 // mov v2.h[0], w12 .long 0x4e061d22 // mov v2.h[1], w9 .long 0x4e0a1d42 // mov v2.h[2], w10 .long 0x4e0e1d02 // mov v2.h[3], w8 .long 0x2f07b7e2 // bic v2.4h, #0xff, lsl #8 .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x6e21d842 // ucvtf v2.4s, v2.4s .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x6e23dc43 // fmul v3.4s, v2.4s, v3.4s .long 0x6f00e402 // movi v2.2d, #0x0 .long 0xd61f00a0 // br x5 HIDDEN _sk_store_a8_aarch64 .globl _sk_store_a8_aarch64 FUNCTION(_sk_store_a8_aarch64) _sk_store_a8_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a86fe9 // mov w9, #0x437f0000 .long 0x4e040d30 // dup v16.4s, w9 .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x6e30dc70 // fmul v16.4s, v3.4s, v16.4s .long 0x6e21aa10 // fcvtnu v16.4s, v16.4s .long 0x0e612a10 // xtn v16.4h, v16.4s .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb5000184 // cbnz x4, 2aac <_sk_store_a8_aarch64+0x5c> .long 0x0e0e3e09 // umov w9, v16.h[3] .long 0x0e0a3e0a // umov w10, v16.h[2] .long 0x0e063e0b // umov w11, v16.h[1] .long 0x0e023e0c // umov w12, v16.h[0] .long 0x39000d09 // strb w9, [x8, #3] .long 0x3900090a // strb w10, [x8, #2] .long 0x3900050b // strb w11, [x8, #1] .long 0x3900010c // strb w12, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000180 // b.eq 2ae4 <_sk_store_a8_aarch64+0x94> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x540000a0 // b.eq 2ad0 <_sk_store_a8_aarch64+0x80> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffee1 // b.ne 2aa0 <_sk_store_a8_aarch64+0x50> // b.any .long 0x0e0a3e09 // umov w9, v16.h[2] .long 0x39000909 // strb w9, [x8, #2] .long 0x0e023e09 // umov w9, v16.h[0] .long 0x0e063e0a // umov w10, v16.h[1] .long 0x3900050a // strb w10, [x8, #1] .long 0x39000109 // strb w9, [x8] .long 0x17fffff0 // b 2aa0 <_sk_store_a8_aarch64+0x50> .long 0x0e023e09 // umov w9, v16.h[0] .long 0x39000109 // strb w9, [x8] .long 0x17ffffed // b 2aa0 <_sk_store_a8_aarch64+0x50> HIDDEN _sk_load_g8_aarch64 .globl _sk_load_g8_aarch64 FUNCTION(_sk_load_g8_aarch64) _sk_load_g8_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb50002e4 // cbnz x4, 2b64 <_sk_load_g8_aarch64+0x74> .long 0x39400109 // ldrb w9, [x8] .long 0x3940050a // ldrb w10, [x8, #1] .long 0x3940090b // ldrb w11, [x8, #2] .long 0x39400d08 // ldrb w8, [x8, #3] .long 0x4e021d20 // mov v0.h[0], w9 .long 0x4e061d40 // mov v0.h[1], w10 .long 0x4e0a1d60 // mov v0.h[2], w11 .long 0x4e0e1d00 // mov v0.h[3], w8 .long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8 .long 0x52a77008 // mov w8, #0x3b800000 .long 0x72901028 // movk w8, #0x8081 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x4e040d01 // dup v1.4s, w8 .long 0x6e21d800 // ucvtf v0.4s, v0.4s .long 0x91004028 // add x8, x1, #0x10 .long 0x6e21dc00 // fmul v0.4s, v0.4s, v1.4s .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0xaa0803e1 // mov x1, x8 .long 0x4ea01c01 // mov v1.16b, v0.16b .long 0x4ea01c02 // mov v2.16b, v0.16b .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 2bb0 <_sk_load_g8_aarch64+0xc0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e400 // movi d0, #0x0 .long 0x540000c0 // b.eq 2b90 <_sk_load_g8_aarch64+0xa0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffd61 // b.ne 2b2c <_sk_load_g8_aarch64+0x3c> // b.any .long 0x39400909 // ldrb w9, [x8, #2] .long 0x0e020fe0 // dup v0.4h, wzr .long 0x4e0a1d20 // mov v0.h[2], w9 .long 0x39400109 // ldrb w9, [x8] .long 0x39400508 // ldrb w8, [x8, #1] .long 0x4e041d21 // mov v1.s[0], w9 .long 0x4e0c1d01 // mov v1.s[1], w8 .long 0x0e401821 // uzp1 v1.4h, v1.4h, v0.4h .long 0x2e012000 // ext v0.8b, v0.8b, v1.8b, #4 .long 0x2e002000 // ext v0.8b, v0.8b, v0.8b, #4 .long 0x17ffffe0 // b 2b2c <_sk_load_g8_aarch64+0x3c> .long 0x39400108 // ldrb w8, [x8] .long 0x0e020fe0 // dup v0.4h, wzr .long 0x4e021d00 // mov v0.h[0], w8 .long 0x17ffffdc // b 2b2c <_sk_load_g8_aarch64+0x3c> HIDDEN _sk_load_g8_dst_aarch64 .globl _sk_load_g8_dst_aarch64 FUNCTION(_sk_load_g8_dst_aarch64) _sk_load_g8_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x93407c6a // sxtw x10, w3 .long 0xf9400109 // ldr x9, [x8] .long 0xb9800908 // ldrsw x8, [x8, #8] .long 0x9b0a2508 // madd x8, x8, x10, x9 .long 0x8b22c108 // add x8, x8, w2, sxtw .long 0xb50002e4 // cbnz x4, 2c34 <_sk_load_g8_dst_aarch64+0x74> .long 0x39400109 // ldrb w9, [x8] .long 0x3940050a // ldrb w10, [x8, #1] .long 0x3940090b // ldrb w11, [x8, #2] .long 0x39400d08 // ldrb w8, [x8, #3] .long 0x4e021d24 // mov v4.h[0], w9 .long 0x4e061d44 // mov v4.h[1], w10 .long 0x4e0a1d64 // mov v4.h[2], w11 .long 0x4e0e1d04 // mov v4.h[3], w8 .long 0x2f07b7e4 // bic v4.4h, #0xff, lsl #8 .long 0x52a77008 // mov w8, #0x3b800000 .long 0x72901028 // movk w8, #0x8081 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x2f10a484 // uxtl v4.4s, v4.4h .long 0x4e040d05 // dup v5.4s, w8 .long 0x6e21d884 // ucvtf v4.4s, v4.4s .long 0x91004028 // add x8, x1, #0x10 .long 0x6e25dc84 // fmul v4.4s, v4.4s, v5.4s .long 0x4f03f607 // fmov v7.4s, #1.000000000000000000e+00 .long 0xaa0803e1 // mov x1, x8 .long 0x4ea41c85 // mov v5.16b, v4.16b .long 0x4ea41c86 // mov v6.16b, v4.16b .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 2c80 <_sk_load_g8_dst_aarch64+0xc0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e404 // movi d4, #0x0 .long 0x540000c0 // b.eq 2c60 <_sk_load_g8_dst_aarch64+0xa0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffd61 // b.ne 2bfc <_sk_load_g8_dst_aarch64+0x3c> // b.any .long 0x39400909 // ldrb w9, [x8, #2] .long 0x0e020fe4 // dup v4.4h, wzr .long 0x4e0a1d24 // mov v4.h[2], w9 .long 0x39400109 // ldrb w9, [x8] .long 0x39400508 // ldrb w8, [x8, #1] .long 0x4e041d25 // mov v5.s[0], w9 .long 0x4e0c1d05 // mov v5.s[1], w8 .long 0x0e4018a5 // uzp1 v5.4h, v5.4h, v0.4h .long 0x2e052084 // ext v4.8b, v4.8b, v5.8b, #4 .long 0x2e042084 // ext v4.8b, v4.8b, v4.8b, #4 .long 0x17ffffe0 // b 2bfc <_sk_load_g8_dst_aarch64+0x3c> .long 0x39400108 // ldrb w8, [x8] .long 0x0e020fe4 // dup v4.4h, wzr .long 0x4e021d04 // mov v4.h[0], w8 .long 0x17ffffdc // b 2bfc <_sk_load_g8_dst_aarch64+0x3c> HIDDEN _sk_gather_g8_aarch64 .globl _sk_gather_g8_aarch64 FUNCTION(_sk_gather_g8_aarch64) _sk_gather_g8_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x52a77009 // mov w9, #0x3b800000 .long 0x72901029 // movk w9, #0x8081 .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x1e26000c // fmov w12, s0 .long 0x4e040d23 // dup v3.4s, w9 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x386c490c // ldrb w12, [x8, w12, uxtw] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x38694909 // ldrb w9, [x8, w9, uxtw] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x386a490a // ldrb w10, [x8, w10, uxtw] .long 0x386b4908 // ldrb w8, [x8, w11, uxtw] .long 0x4e021d80 // mov v0.h[0], w12 .long 0x4e061d20 // mov v0.h[1], w9 .long 0x4e0a1d40 // mov v0.h[2], w10 .long 0x4e0e1d00 // mov v0.h[3], w8 .long 0x2f07b7e0 // bic v0.4h, #0xff, lsl #8 .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x6e21d800 // ucvtf v0.4s, v0.4s .long 0x6e23dc00 // fmul v0.4s, v0.4s, v3.4s .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0x4ea01c01 // mov v1.16b, v0.16b .long 0x4ea01c02 // mov v2.16b, v0.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_load_565_aarch64 .globl _sk_load_565_aarch64 FUNCTION(_sk_load_565_aarch64) _sk_load_565_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0xb50003c4 // cbnz x4, 2d9c <_sk_load_565_aarch64+0x94> .long 0xfd400100 // ldr d0, [x8] .long 0x321b17e8 // orr w8, wzr, #0x7e0 .long 0x4e040d02 // dup v2.4s, w8 .long 0x52a6f088 // mov w8, #0x37840000 .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x4f072701 // movi v1.4s, #0xf8, lsl #8 .long 0x72842108 // movk w8, #0x2108 .long 0x4f0007e3 // movi v3.4s, #0x1f .long 0x4e211c01 // and v1.16b, v0.16b, v1.16b .long 0x4e231c03 // and v3.16b, v0.16b, v3.16b .long 0x4e221c10 // and v16.16b, v0.16b, v2.16b .long 0x4e040d00 // dup v0.4s, w8 .long 0x52a7a088 // mov w8, #0x3d040000 .long 0x72842108 // movk w8, #0x2108 .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x6e20dc20 // fmul v0.4s, v1.4s, v0.4s .long 0x4e040d01 // dup v1.4s, w8 .long 0x52a74048 // mov w8, #0x3a020000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72810428 // movk w8, #0x821 .long 0x4e21d862 // scvtf v2.4s, v3.4s .long 0x6e21dc42 // fmul v2.4s, v2.4s, v1.4s .long 0x4e040d01 // dup v1.4s, w8 .long 0x91004028 // add x8, x1, #0x10 .long 0x4e21da03 // scvtf v3.4s, v16.4s .long 0x6e21dc61 // fmul v1.4s, v3.4s, v1.4s .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0xaa0803e1 // mov x1, x8 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 2de8 <_sk_load_565_aarch64+0xe0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e400 // movi d0, #0x0 .long 0x540000c0 // b.eq 2dc8 <_sk_load_565_aarch64+0xc0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffba1 // b.ne 2d2c <_sk_load_565_aarch64+0x24> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0e020fe0 // dup v0.4h, wzr .long 0x0d405120 // ld1 {v0.h}[2], [x9] .long 0x79400109 // ldrh w9, [x8] .long 0x79400508 // ldrh w8, [x8, #2] .long 0x4e041d21 // mov v1.s[0], w9 .long 0x4e0c1d01 // mov v1.s[1], w8 .long 0x0e401821 // uzp1 v1.4h, v1.4h, v0.4h .long 0x2e012000 // ext v0.8b, v0.8b, v1.8b, #4 .long 0x2e002000 // ext v0.8b, v0.8b, v0.8b, #4 .long 0x17ffffd2 // b 2d2c <_sk_load_565_aarch64+0x24> .long 0x0e020fe0 // dup v0.4h, wzr .long 0x0d404100 // ld1 {v0.h}[0], [x8] .long 0x17ffffcf // b 2d2c <_sk_load_565_aarch64+0x24> HIDDEN _sk_load_565_dst_aarch64 .globl _sk_load_565_dst_aarch64 FUNCTION(_sk_load_565_dst_aarch64) _sk_load_565_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0xb50003c4 // cbnz x4, 2e88 <_sk_load_565_dst_aarch64+0x94> .long 0xfd400104 // ldr d4, [x8] .long 0x321b17e8 // orr w8, wzr, #0x7e0 .long 0x4e040d06 // dup v6.4s, w8 .long 0x52a6f088 // mov w8, #0x37840000 .long 0x2f10a484 // uxtl v4.4s, v4.4h .long 0x4f072705 // movi v5.4s, #0xf8, lsl #8 .long 0x72842108 // movk w8, #0x2108 .long 0x4f0007e7 // movi v7.4s, #0x1f .long 0x4e251c85 // and v5.16b, v4.16b, v5.16b .long 0x4e271c87 // and v7.16b, v4.16b, v7.16b .long 0x4e261c90 // and v16.16b, v4.16b, v6.16b .long 0x4e040d04 // dup v4.4s, w8 .long 0x52a7a088 // mov w8, #0x3d040000 .long 0x72842108 // movk w8, #0x2108 .long 0x4e21d8a5 // scvtf v5.4s, v5.4s .long 0x6e24dca4 // fmul v4.4s, v5.4s, v4.4s .long 0x4e040d05 // dup v5.4s, w8 .long 0x52a74048 // mov w8, #0x3a020000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72810428 // movk w8, #0x821 .long 0x4e21d8e6 // scvtf v6.4s, v7.4s .long 0x6e25dcc6 // fmul v6.4s, v6.4s, v5.4s .long 0x4e040d05 // dup v5.4s, w8 .long 0x91004028 // add x8, x1, #0x10 .long 0x4e21da07 // scvtf v7.4s, v16.4s .long 0x6e25dce5 // fmul v5.4s, v7.4s, v5.4s .long 0x4f03f607 // fmov v7.4s, #1.000000000000000000e+00 .long 0xaa0803e1 // mov x1, x8 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 2ed4 <_sk_load_565_dst_aarch64+0xe0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e404 // movi d4, #0x0 .long 0x540000c0 // b.eq 2eb4 <_sk_load_565_dst_aarch64+0xc0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffba1 // b.ne 2e18 <_sk_load_565_dst_aarch64+0x24> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0e020fe4 // dup v4.4h, wzr .long 0x0d405124 // ld1 {v4.h}[2], [x9] .long 0x79400109 // ldrh w9, [x8] .long 0x79400508 // ldrh w8, [x8, #2] .long 0x4e041d25 // mov v5.s[0], w9 .long 0x4e0c1d05 // mov v5.s[1], w8 .long 0x0e4018a5 // uzp1 v5.4h, v5.4h, v0.4h .long 0x2e052084 // ext v4.8b, v4.8b, v5.8b, #4 .long 0x2e042084 // ext v4.8b, v4.8b, v4.8b, #4 .long 0x17ffffd2 // b 2e18 <_sk_load_565_dst_aarch64+0x24> .long 0x0e020fe4 // dup v4.4h, wzr .long 0x0d404104 // ld1 {v4.h}[0], [x8] .long 0x17ffffcf // b 2e18 <_sk_load_565_dst_aarch64+0x24> HIDDEN _sk_gather_565_aarch64 .globl _sk_gather_565_aarch64 FUNCTION(_sk_gather_565_aarch64) _sk_gather_565_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x321b17e9 // orr w9, wzr, #0x7e0 .long 0x4e040d23 // dup v3.4s, w9 .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x1e26000c // fmov w12, s0 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x8b2c450c // add x12, x8, w12, uxtw #1 .long 0x0e143c0a // mov w10, v0.s[2] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x0d404180 // ld1 {v0.h}[0], [x12] .long 0x78695909 // ldrh w9, [x8, w9, uxtw #1] .long 0x786a590a // ldrh w10, [x8, w10, uxtw #1] .long 0x786b5908 // ldrh w8, [x8, w11, uxtw #1] .long 0x4f072701 // movi v1.4s, #0xf8, lsl #8 .long 0x4e061d20 // mov v0.h[1], w9 .long 0x4e0a1d40 // mov v0.h[2], w10 .long 0x4e0e1d00 // mov v0.h[3], w8 .long 0x52a6f08b // mov w11, #0x37840000 .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x7284210b // movk w11, #0x2108 .long 0x52a74049 // mov w9, #0x3a020000 .long 0x4f0007e2 // movi v2.4s, #0x1f .long 0x4e211c01 // and v1.16b, v0.16b, v1.16b .long 0x72810429 // movk w9, #0x821 .long 0x52a7a08a // mov w10, #0x3d040000 .long 0x4e231c03 // and v3.16b, v0.16b, v3.16b .long 0x4e221c02 // and v2.16b, v0.16b, v2.16b .long 0x4e040d60 // dup v0.4s, w11 .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x7284210a // movk w10, #0x2108 .long 0x6e20dc20 // fmul v0.4s, v1.4s, v0.4s .long 0x4e040d21 // dup v1.4s, w9 .long 0x4e21d863 // scvtf v3.4s, v3.4s .long 0x6e21dc61 // fmul v1.4s, v3.4s, v1.4s .long 0x4e040d43 // dup v3.4s, w10 .long 0x4e21d842 // scvtf v2.4s, v2.4s .long 0x6e23dc42 // fmul v2.4s, v2.4s, v3.4s .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0xd61f00a0 // br x5 HIDDEN _sk_store_565_aarch64 .globl _sk_store_565_aarch64 FUNCTION(_sk_store_565_aarch64) _sk_store_565_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a84f8a // mov w10, #0x427c0000 .long 0x4e040d50 // dup v16.4s, w10 .long 0x4f01f7f1 // fmov v17.4s, #3.100000000000000000e+01 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x6e31dc12 // fmul v18.4s, v0.4s, v17.4s .long 0x6e30dc30 // fmul v16.4s, v1.4s, v16.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0x6e21aa10 // fcvtnu v16.4s, v16.4s .long 0x6e31dc51 // fmul v17.4s, v2.4s, v17.4s .long 0x4f2b5652 // shl v18.4s, v18.4s, #11 .long 0x4f255610 // shl v16.4s, v16.4s, #5 .long 0x1b037d29 // mul w9, w9, w3 .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0x4eb21e10 // orr v16.16b, v16.16b, v18.16b .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x4eb11e10 // orr v16.16b, v16.16b, v17.16b .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0x0e612a10 // xtn v16.4h, v16.4s .long 0xb50000a4 // cbnz x4, 2ff8 <_sk_store_565_aarch64+0x68> .long 0xfd000110 // str d16, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000120 // b.eq 3024 <_sk_store_565_aarch64+0x94> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x540000a0 // b.eq 301c <_sk_store_565_aarch64+0x8c> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffee1 // b.ne 2fec <_sk_store_565_aarch64+0x5c> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0d005130 // st1 {v16.h}[2], [x9] .long 0x91000909 // add x9, x8, #0x2 .long 0x0d004930 // st1 {v16.h}[1], [x9] .long 0x0d004110 // st1 {v16.h}[0], [x8] .long 0x17fffff1 // b 2fec <_sk_store_565_aarch64+0x5c> HIDDEN _sk_load_4444_aarch64 .globl _sk_load_4444_aarch64 FUNCTION(_sk_load_4444_aarch64) _sk_load_4444_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0xb5000444 // cbnz x4, 30d0 <_sk_load_4444_aarch64+0xa4> .long 0xfd400100 // ldr d0, [x8] .long 0x52a6f108 // mov w8, #0x37880000 .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x4f072601 // movi v1.4s, #0xf0, lsl #8 .long 0x72911128 // movk w8, #0x8889 .long 0x4f0025e2 // movi v2.4s, #0xf, lsl #8 .long 0x4f070603 // movi v3.4s, #0xf0 .long 0x4f0005f0 // movi v16.4s, #0xf .long 0x4e211c01 // and v1.16b, v0.16b, v1.16b .long 0x4e221c02 // and v2.16b, v0.16b, v2.16b .long 0x4e231c03 // and v3.16b, v0.16b, v3.16b .long 0x4e301c10 // and v16.16b, v0.16b, v16.16b .long 0x4e040d00 // dup v0.4s, w8 .long 0x52a73108 // mov w8, #0x39880000 .long 0x72911128 // movk w8, #0x8889 .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x6e20dc20 // fmul v0.4s, v1.4s, v0.4s .long 0x4e040d01 // dup v1.4s, w8 .long 0x52a77108 // mov w8, #0x3b880000 .long 0x72911128 // movk w8, #0x8889 .long 0x4e21d842 // scvtf v2.4s, v2.4s .long 0x6e21dc41 // fmul v1.4s, v2.4s, v1.4s .long 0x4e040d02 // dup v2.4s, w8 .long 0x52a7b108 // mov w8, #0x3d880000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72911128 // movk w8, #0x8889 .long 0x4e21d863 // scvtf v3.4s, v3.4s .long 0x6e22dc62 // fmul v2.4s, v3.4s, v2.4s .long 0x4e040d03 // dup v3.4s, w8 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e23de03 // fmul v3.4s, v16.4s, v3.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 311c <_sk_load_4444_aarch64+0xf0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e400 // movi d0, #0x0 .long 0x540000c0 // b.eq 30fc <_sk_load_4444_aarch64+0xd0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffb21 // b.ne 3050 <_sk_load_4444_aarch64+0x24> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0e020fe0 // dup v0.4h, wzr .long 0x0d405120 // ld1 {v0.h}[2], [x9] .long 0x79400109 // ldrh w9, [x8] .long 0x79400508 // ldrh w8, [x8, #2] .long 0x4e041d21 // mov v1.s[0], w9 .long 0x4e0c1d01 // mov v1.s[1], w8 .long 0x0e401821 // uzp1 v1.4h, v1.4h, v0.4h .long 0x2e012000 // ext v0.8b, v0.8b, v1.8b, #4 .long 0x2e002000 // ext v0.8b, v0.8b, v0.8b, #4 .long 0x17ffffce // b 3050 <_sk_load_4444_aarch64+0x24> .long 0x0e020fe0 // dup v0.4h, wzr .long 0x0d404100 // ld1 {v0.h}[0], [x8] .long 0x17ffffcb // b 3050 <_sk_load_4444_aarch64+0x24> HIDDEN _sk_load_4444_dst_aarch64 .globl _sk_load_4444_dst_aarch64 FUNCTION(_sk_load_4444_dst_aarch64) _sk_load_4444_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0xb5000444 // cbnz x4, 31cc <_sk_load_4444_dst_aarch64+0xa4> .long 0xfd400104 // ldr d4, [x8] .long 0x52a6f108 // mov w8, #0x37880000 .long 0x2f10a484 // uxtl v4.4s, v4.4h .long 0x4f072605 // movi v5.4s, #0xf0, lsl #8 .long 0x72911128 // movk w8, #0x8889 .long 0x4f0025e6 // movi v6.4s, #0xf, lsl #8 .long 0x4f070607 // movi v7.4s, #0xf0 .long 0x4f0005f0 // movi v16.4s, #0xf .long 0x4e251c85 // and v5.16b, v4.16b, v5.16b .long 0x4e261c86 // and v6.16b, v4.16b, v6.16b .long 0x4e271c87 // and v7.16b, v4.16b, v7.16b .long 0x4e301c90 // and v16.16b, v4.16b, v16.16b .long 0x4e040d04 // dup v4.4s, w8 .long 0x52a73108 // mov w8, #0x39880000 .long 0x72911128 // movk w8, #0x8889 .long 0x4e21d8a5 // scvtf v5.4s, v5.4s .long 0x6e24dca4 // fmul v4.4s, v5.4s, v4.4s .long 0x4e040d05 // dup v5.4s, w8 .long 0x52a77108 // mov w8, #0x3b880000 .long 0x72911128 // movk w8, #0x8889 .long 0x4e21d8c6 // scvtf v6.4s, v6.4s .long 0x6e25dcc5 // fmul v5.4s, v6.4s, v5.4s .long 0x4e040d06 // dup v6.4s, w8 .long 0x52a7b108 // mov w8, #0x3d880000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72911128 // movk w8, #0x8889 .long 0x4e21d8e7 // scvtf v7.4s, v7.4s .long 0x6e26dce6 // fmul v6.4s, v7.4s, v6.4s .long 0x4e040d07 // dup v7.4s, w8 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e27de07 // fmul v7.4s, v16.4s, v7.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000220 // b.eq 3218 <_sk_load_4444_dst_aarch64+0xf0> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x2f00e404 // movi d4, #0x0 .long 0x540000c0 // b.eq 31f8 <_sk_load_4444_dst_aarch64+0xd0> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffb21 // b.ne 314c <_sk_load_4444_dst_aarch64+0x24> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0e020fe4 // dup v4.4h, wzr .long 0x0d405124 // ld1 {v4.h}[2], [x9] .long 0x79400109 // ldrh w9, [x8] .long 0x79400508 // ldrh w8, [x8, #2] .long 0x4e041d25 // mov v5.s[0], w9 .long 0x4e0c1d05 // mov v5.s[1], w8 .long 0x0e4018a5 // uzp1 v5.4h, v5.4h, v0.4h .long 0x2e052084 // ext v4.8b, v4.8b, v5.8b, #4 .long 0x2e042084 // ext v4.8b, v4.8b, v4.8b, #4 .long 0x17ffffce // b 314c <_sk_load_4444_dst_aarch64+0x24> .long 0x0e020fe4 // dup v4.4h, wzr .long 0x0d404104 // ld1 {v4.h}[0], [x8] .long 0x17ffffcb // b 314c <_sk_load_4444_dst_aarch64+0x24> HIDDEN _sk_gather_4444_aarch64 .globl _sk_gather_4444_aarch64 FUNCTION(_sk_gather_4444_aarch64) _sk_gather_4444_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x4f070603 // movi v3.4s, #0xf0 .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x4f0005f0 // movi v16.4s, #0xf .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x1e26000c // fmov w12, s0 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x8b2c450c // add x12, x8, w12, uxtw #1 .long 0x0e143c0a // mov w10, v0.s[2] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x0d404180 // ld1 {v0.h}[0], [x12] .long 0x78695909 // ldrh w9, [x8, w9, uxtw #1] .long 0x786a590a // ldrh w10, [x8, w10, uxtw #1] .long 0x786b5908 // ldrh w8, [x8, w11, uxtw #1] .long 0x4f072601 // movi v1.4s, #0xf0, lsl #8 .long 0x4e061d20 // mov v0.h[1], w9 .long 0x4e0a1d40 // mov v0.h[2], w10 .long 0x4e0e1d00 // mov v0.h[3], w8 .long 0x52a6f10b // mov w11, #0x37880000 .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x7291112b // movk w11, #0x8889 .long 0x4f0025e2 // movi v2.4s, #0xf, lsl #8 .long 0x52a73109 // mov w9, #0x39880000 .long 0x4e211c01 // and v1.16b, v0.16b, v1.16b .long 0x72911129 // movk w9, #0x8889 .long 0x52a7710a // mov w10, #0x3b880000 .long 0x4e221c02 // and v2.16b, v0.16b, v2.16b .long 0x4e231c03 // and v3.16b, v0.16b, v3.16b .long 0x4e301c10 // and v16.16b, v0.16b, v16.16b .long 0x4e040d60 // dup v0.4s, w11 .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x7291112a // movk w10, #0x8889 .long 0x52a7b108 // mov w8, #0x3d880000 .long 0x6e20dc20 // fmul v0.4s, v1.4s, v0.4s .long 0x4e040d21 // dup v1.4s, w9 .long 0x4e21d842 // scvtf v2.4s, v2.4s .long 0x72911128 // movk w8, #0x8889 .long 0x6e21dc41 // fmul v1.4s, v2.4s, v1.4s .long 0x4e040d42 // dup v2.4s, w10 .long 0x4e21d863 // scvtf v3.4s, v3.4s .long 0x6e22dc62 // fmul v2.4s, v3.4s, v2.4s .long 0x4e040d03 // dup v3.4s, w8 .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x6e23de03 // fmul v3.4s, v16.4s, v3.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_store_4444_aarch64 .globl _sk_store_4444_aarch64 FUNCTION(_sk_store_4444_aarch64) _sk_store_4444_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f01f5d0 // fmov v16.4s, #1.500000000000000000e+01 .long 0x6e30dc11 // fmul v17.4s, v0.4s, v16.4s .long 0x6e30dc32 // fmul v18.4s, v1.4s, v16.4s .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0xb9400909 // ldr w9, [x8, #8] .long 0x4f2c5631 // shl v17.4s, v17.4s, #12 .long 0x4f285652 // shl v18.4s, v18.4s, #8 .long 0xf9400108 // ldr x8, [x8] .long 0x4eb11e51 // orr v17.16b, v18.16b, v17.16b .long 0x6e30dc52 // fmul v18.4s, v2.4s, v16.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0x6e30dc70 // fmul v16.4s, v3.4s, v16.4s .long 0x4f245652 // shl v18.4s, v18.4s, #4 .long 0x1b037d29 // mul w9, w9, w3 .long 0x6e21aa10 // fcvtnu v16.4s, v16.4s .long 0x4eb21e31 // orr v17.16b, v17.16b, v18.16b .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0x0e612a10 // xtn v16.4h, v16.4s .long 0xb50000a4 // cbnz x4, 3358 <_sk_store_4444_aarch64+0x70> .long 0xfd000110 // str d16, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000120 // b.eq 3384 <_sk_store_4444_aarch64+0x9c> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x540000a0 // b.eq 337c <_sk_store_4444_aarch64+0x94> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffee1 // b.ne 334c <_sk_store_4444_aarch64+0x64> // b.any .long 0x91001109 // add x9, x8, #0x4 .long 0x0d005130 // st1 {v16.h}[2], [x9] .long 0x91000909 // add x9, x8, #0x2 .long 0x0d004930 // st1 {v16.h}[1], [x9] .long 0x0d004110 // st1 {v16.h}[0], [x8] .long 0x17fffff1 // b 334c <_sk_store_4444_aarch64+0x64> HIDDEN _sk_load_8888_aarch64 .globl _sk_load_8888_aarch64 FUNCTION(_sk_load_8888_aarch64) _sk_load_8888_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0xb50002e4 // cbnz x4, 3404 <_sk_load_8888_aarch64+0x78> .long 0x3dc00100 // ldr q0, [x8] .long 0x6f00e621 // movi v1.2d, #0xff000000ff .long 0x52a77008 // mov w8, #0x3b800000 .long 0x6f380402 // ushr v2.4s, v0.4s, #8 .long 0x6f300403 // ushr v3.4s, v0.4s, #16 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72901028 // movk w8, #0x8081 .long 0x6f280410 // ushr v16.4s, v0.4s, #24 .long 0x4e211c00 // and v0.16b, v0.16b, v1.16b .long 0x4e211c42 // and v2.16b, v2.16b, v1.16b .long 0x4e211c61 // and v1.16b, v3.16b, v1.16b .long 0x4e040d11 // dup v17.4s, w8 .long 0x4e21da03 // scvtf v3.4s, v16.4s .long 0x4e21d800 // scvtf v0.4s, v0.4s .long 0x4e21d842 // scvtf v2.4s, v2.4s .long 0x4e21d830 // scvtf v16.4s, v1.4s .long 0x6e31dc63 // fmul v3.4s, v3.4s, v17.4s .long 0x6e31dc00 // fmul v0.4s, v0.4s, v17.4s .long 0x6e31dc41 // fmul v1.4s, v2.4s, v17.4s .long 0x6e31de02 // fmul v2.4s, v16.4s, v17.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x540001a0 // b.eq 3440 <_sk_load_8888_aarch64+0xb4> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x540000c0 // b.eq 3430 <_sk_load_8888_aarch64+0xa4> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffc81 // b.ne 33b0 <_sk_load_8888_aarch64+0x24> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4e040fe0 // dup v0.4s, wzr .long 0x4d408120 // ld1 {v0.s}[2], [x9] .long 0xfd400101 // ldr d1, [x8] .long 0x6e014000 // ext v0.16b, v0.16b, v1.16b, #8 .long 0x6e004000 // ext v0.16b, v0.16b, v0.16b, #8 .long 0x17ffffdd // b 33b0 <_sk_load_8888_aarch64+0x24> .long 0x4e040fe0 // dup v0.4s, wzr .long 0x0d408100 // ld1 {v0.s}[0], [x8] .long 0x17ffffda // b 33b0 <_sk_load_8888_aarch64+0x24> HIDDEN _sk_load_8888_dst_aarch64 .globl _sk_load_8888_dst_aarch64 FUNCTION(_sk_load_8888_dst_aarch64) _sk_load_8888_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0xb50002e4 // cbnz x4, 34c4 <_sk_load_8888_dst_aarch64+0x78> .long 0x3dc00104 // ldr q4, [x8] .long 0x6f00e625 // movi v5.2d, #0xff000000ff .long 0x52a77008 // mov w8, #0x3b800000 .long 0x6f380486 // ushr v6.4s, v4.4s, #8 .long 0x6f300487 // ushr v7.4s, v4.4s, #16 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72901028 // movk w8, #0x8081 .long 0x6f280490 // ushr v16.4s, v4.4s, #24 .long 0x4e251c84 // and v4.16b, v4.16b, v5.16b .long 0x4e251cc6 // and v6.16b, v6.16b, v5.16b .long 0x4e251ce5 // and v5.16b, v7.16b, v5.16b .long 0x4e040d11 // dup v17.4s, w8 .long 0x4e21da07 // scvtf v7.4s, v16.4s .long 0x4e21d884 // scvtf v4.4s, v4.4s .long 0x4e21d8c6 // scvtf v6.4s, v6.4s .long 0x4e21d8b0 // scvtf v16.4s, v5.4s .long 0x6e31dce7 // fmul v7.4s, v7.4s, v17.4s .long 0x6e31dc84 // fmul v4.4s, v4.4s, v17.4s .long 0x6e31dcc5 // fmul v5.4s, v6.4s, v17.4s .long 0x6e31de06 // fmul v6.4s, v16.4s, v17.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x540001a0 // b.eq 3500 <_sk_load_8888_dst_aarch64+0xb4> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x6f00e404 // movi v4.2d, #0x0 .long 0x540000c0 // b.eq 34f0 <_sk_load_8888_dst_aarch64+0xa4> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffc81 // b.ne 3470 <_sk_load_8888_dst_aarch64+0x24> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4e040fe4 // dup v4.4s, wzr .long 0x4d408124 // ld1 {v4.s}[2], [x9] .long 0xfd400105 // ldr d5, [x8] .long 0x6e054084 // ext v4.16b, v4.16b, v5.16b, #8 .long 0x6e044084 // ext v4.16b, v4.16b, v4.16b, #8 .long 0x17ffffdd // b 3470 <_sk_load_8888_dst_aarch64+0x24> .long 0x4e040fe4 // dup v4.4s, wzr .long 0x0d408104 // ld1 {v4.s}[0], [x8] .long 0x17ffffda // b 3470 <_sk_load_8888_dst_aarch64+0x24> HIDDEN _sk_gather_8888_aarch64 .globl _sk_gather_8888_aarch64 FUNCTION(_sk_gather_8888_aarch64) _sk_gather_8888_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x1e26000c // fmov w12, s0 .long 0x8b2c490c // add x12, x8, w12, uxtw #2 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x0d408180 // ld1 {v0.s}[0], [x12] .long 0x8b294909 // add x9, x8, w9, uxtw #2 .long 0xb86a590a // ldr w10, [x8, w10, uxtw #2] .long 0xb86b5908 // ldr w8, [x8, w11, uxtw #2] .long 0x0d409120 // ld1 {v0.s}[1], [x9] .long 0x6f00e621 // movi v1.2d, #0xff000000ff .long 0x52a77009 // mov w9, #0x3b800000 .long 0x72901029 // movk w9, #0x8081 .long 0x4e141d40 // mov v0.s[2], w10 .long 0x4e1c1d00 // mov v0.s[3], w8 .long 0x6f380410 // ushr v16.4s, v0.4s, #8 .long 0x6f300411 // ushr v17.4s, v0.4s, #16 .long 0x4e211c03 // and v3.16b, v0.16b, v1.16b .long 0x6f280400 // ushr v0.4s, v0.4s, #24 .long 0x4e211e10 // and v16.16b, v16.16b, v1.16b .long 0x4e211e21 // and v1.16b, v17.16b, v1.16b .long 0x4e040d22 // dup v2.4s, w9 .long 0x4e21d863 // scvtf v3.4s, v3.4s .long 0x4e21d811 // scvtf v17.4s, v0.4s .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x4e21d832 // scvtf v18.4s, v1.4s .long 0x6e22dc60 // fmul v0.4s, v3.4s, v2.4s .long 0x6e22de23 // fmul v3.4s, v17.4s, v2.4s .long 0x6e22de01 // fmul v1.4s, v16.4s, v2.4s .long 0x6e22de42 // fmul v2.4s, v18.4s, v2.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_store_8888_aarch64 .globl _sk_store_8888_aarch64 FUNCTION(_sk_store_8888_aarch64) _sk_store_8888_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a86fea // mov w10, #0x437f0000 .long 0x4e040d50 // dup v16.4s, w10 .long 0x6e30dc32 // fmul v18.4s, v1.4s, v16.4s .long 0xb9400909 // ldr w9, [x8, #8] .long 0x6e30dc11 // fmul v17.4s, v0.4s, v16.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0xf9400108 // ldr x8, [x8] .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0x4f285652 // shl v18.4s, v18.4s, #8 .long 0x4eb11e51 // orr v17.16b, v18.16b, v17.16b .long 0x6e30dc52 // fmul v18.4s, v2.4s, v16.4s .long 0x6e30dc70 // fmul v16.4s, v3.4s, v16.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0x1b037d29 // mul w9, w9, w3 .long 0x6e21aa10 // fcvtnu v16.4s, v16.4s .long 0x4f305652 // shl v18.4s, v18.4s, #16 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x4f385610 // shl v16.4s, v16.4s, #24 .long 0x4eb21e31 // orr v17.16b, v17.16b, v18.16b .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b .long 0xb50000a4 // cbnz x4, 3614 <_sk_store_8888_aarch64+0x70> .long 0x3d800110 // str q16, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000120 // b.eq 3640 <_sk_store_8888_aarch64+0x9c> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x540000a0 // b.eq 3638 <_sk_store_8888_aarch64+0x94> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffee1 // b.ne 3608 <_sk_store_8888_aarch64+0x64> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4d008130 // st1 {v16.s}[2], [x9] .long 0xfd000110 // str d16, [x8] .long 0x17fffff3 // b 3608 <_sk_store_8888_aarch64+0x64> .long 0x0d008110 // st1 {v16.s}[0], [x8] .long 0x17fffff1 // b 3608 <_sk_store_8888_aarch64+0x64> HIDDEN _sk_load_bgra_aarch64 .globl _sk_load_bgra_aarch64 FUNCTION(_sk_load_bgra_aarch64) _sk_load_bgra_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0xb50002e4 // cbnz x4, 36c0 <_sk_load_bgra_aarch64+0x78> .long 0x3dc00100 // ldr q0, [x8] .long 0x6f00e621 // movi v1.2d, #0xff000000ff .long 0x52a77008 // mov w8, #0x3b800000 .long 0x6f380402 // ushr v2.4s, v0.4s, #8 .long 0x6f300403 // ushr v3.4s, v0.4s, #16 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72901028 // movk w8, #0x8081 .long 0x6f280410 // ushr v16.4s, v0.4s, #24 .long 0x4e211c00 // and v0.16b, v0.16b, v1.16b .long 0x4e211c42 // and v2.16b, v2.16b, v1.16b .long 0x4e211c61 // and v1.16b, v3.16b, v1.16b .long 0x4e040d11 // dup v17.4s, w8 .long 0x4e21da03 // scvtf v3.4s, v16.4s .long 0x4e21d800 // scvtf v0.4s, v0.4s .long 0x4e21d850 // scvtf v16.4s, v2.4s .long 0x4e21d832 // scvtf v18.4s, v1.4s .long 0x6e31dc63 // fmul v3.4s, v3.4s, v17.4s .long 0x6e31dc02 // fmul v2.4s, v0.4s, v17.4s .long 0x6e31de01 // fmul v1.4s, v16.4s, v17.4s .long 0x6e31de40 // fmul v0.4s, v18.4s, v17.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x540001a0 // b.eq 36fc <_sk_load_bgra_aarch64+0xb4> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x540000c0 // b.eq 36ec <_sk_load_bgra_aarch64+0xa4> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffc81 // b.ne 366c <_sk_load_bgra_aarch64+0x24> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4e040fe0 // dup v0.4s, wzr .long 0x4d408120 // ld1 {v0.s}[2], [x9] .long 0xfd400101 // ldr d1, [x8] .long 0x6e014000 // ext v0.16b, v0.16b, v1.16b, #8 .long 0x6e004000 // ext v0.16b, v0.16b, v0.16b, #8 .long 0x17ffffdd // b 366c <_sk_load_bgra_aarch64+0x24> .long 0x4e040fe0 // dup v0.4s, wzr .long 0x0d408100 // ld1 {v0.s}[0], [x8] .long 0x17ffffda // b 366c <_sk_load_bgra_aarch64+0x24> HIDDEN _sk_load_bgra_dst_aarch64 .globl _sk_load_bgra_dst_aarch64 FUNCTION(_sk_load_bgra_dst_aarch64) _sk_load_bgra_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0xb50002e4 // cbnz x4, 3780 <_sk_load_bgra_dst_aarch64+0x78> .long 0x3dc00104 // ldr q4, [x8] .long 0x6f00e625 // movi v5.2d, #0xff000000ff .long 0x52a77008 // mov w8, #0x3b800000 .long 0x6f380486 // ushr v6.4s, v4.4s, #8 .long 0x6f300487 // ushr v7.4s, v4.4s, #16 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x72901028 // movk w8, #0x8081 .long 0x6f280490 // ushr v16.4s, v4.4s, #24 .long 0x4e251c84 // and v4.16b, v4.16b, v5.16b .long 0x4e251cc6 // and v6.16b, v6.16b, v5.16b .long 0x4e251ce5 // and v5.16b, v7.16b, v5.16b .long 0x4e040d11 // dup v17.4s, w8 .long 0x4e21da07 // scvtf v7.4s, v16.4s .long 0x4e21d884 // scvtf v4.4s, v4.4s .long 0x4e21d8d0 // scvtf v16.4s, v6.4s .long 0x4e21d8b2 // scvtf v18.4s, v5.4s .long 0x6e31dce7 // fmul v7.4s, v7.4s, v17.4s .long 0x6e31dc86 // fmul v6.4s, v4.4s, v17.4s .long 0x6e31de05 // fmul v5.4s, v16.4s, v17.4s .long 0x6e31de44 // fmul v4.4s, v18.4s, v17.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x540001a0 // b.eq 37bc <_sk_load_bgra_dst_aarch64+0xb4> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x6f00e404 // movi v4.2d, #0x0 .long 0x540000c0 // b.eq 37ac <_sk_load_bgra_dst_aarch64+0xa4> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffc81 // b.ne 372c <_sk_load_bgra_dst_aarch64+0x24> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4e040fe4 // dup v4.4s, wzr .long 0x4d408124 // ld1 {v4.s}[2], [x9] .long 0xfd400105 // ldr d5, [x8] .long 0x6e054084 // ext v4.16b, v4.16b, v5.16b, #8 .long 0x6e044084 // ext v4.16b, v4.16b, v4.16b, #8 .long 0x17ffffdd // b 372c <_sk_load_bgra_dst_aarch64+0x24> .long 0x4e040fe4 // dup v4.4s, wzr .long 0x0d408104 // ld1 {v4.s}[0], [x8] .long 0x17ffffda // b 372c <_sk_load_bgra_dst_aarch64+0x24> HIDDEN _sk_gather_bgra_aarch64 .globl _sk_gather_bgra_aarch64 FUNCTION(_sk_gather_bgra_aarch64) _sk_gather_bgra_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x1e26000c // fmov w12, s0 .long 0x8b2c490c // add x12, x8, w12, uxtw #2 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x0d408180 // ld1 {v0.s}[0], [x12] .long 0x8b294909 // add x9, x8, w9, uxtw #2 .long 0xb86a590a // ldr w10, [x8, w10, uxtw #2] .long 0xb86b5908 // ldr w8, [x8, w11, uxtw #2] .long 0x0d409120 // ld1 {v0.s}[1], [x9] .long 0x6f00e621 // movi v1.2d, #0xff000000ff .long 0x52a77009 // mov w9, #0x3b800000 .long 0x72901029 // movk w9, #0x8081 .long 0x4e141d40 // mov v0.s[2], w10 .long 0x4e1c1d00 // mov v0.s[3], w8 .long 0x6f380403 // ushr v3.4s, v0.4s, #8 .long 0x6f300411 // ushr v17.4s, v0.4s, #16 .long 0x4e211c02 // and v2.16b, v0.16b, v1.16b .long 0x6f280400 // ushr v0.4s, v0.4s, #24 .long 0x4e211c63 // and v3.16b, v3.16b, v1.16b .long 0x4e211e21 // and v1.16b, v17.16b, v1.16b .long 0x4e040d30 // dup v16.4s, w9 .long 0x4e21d842 // scvtf v2.4s, v2.4s .long 0x4e21d800 // scvtf v0.4s, v0.4s .long 0x4e21d871 // scvtf v17.4s, v3.4s .long 0x4e21d832 // scvtf v18.4s, v1.4s .long 0x6e30dc42 // fmul v2.4s, v2.4s, v16.4s .long 0x6e30dc03 // fmul v3.4s, v0.4s, v16.4s .long 0x6e30de21 // fmul v1.4s, v17.4s, v16.4s .long 0x6e30de40 // fmul v0.4s, v18.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_store_bgra_aarch64 .globl _sk_store_bgra_aarch64 FUNCTION(_sk_store_bgra_aarch64) _sk_store_bgra_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a86fea // mov w10, #0x437f0000 .long 0x4e040d50 // dup v16.4s, w10 .long 0x6e30dc32 // fmul v18.4s, v1.4s, v16.4s .long 0xb9400909 // ldr w9, [x8, #8] .long 0x6e30dc51 // fmul v17.4s, v2.4s, v16.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0xf9400108 // ldr x8, [x8] .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0x4f285652 // shl v18.4s, v18.4s, #8 .long 0x4eb11e51 // orr v17.16b, v18.16b, v17.16b .long 0x6e30dc12 // fmul v18.4s, v0.4s, v16.4s .long 0x6e30dc70 // fmul v16.4s, v3.4s, v16.4s .long 0x6e21aa52 // fcvtnu v18.4s, v18.4s .long 0x1b037d29 // mul w9, w9, w3 .long 0x6e21aa10 // fcvtnu v16.4s, v16.4s .long 0x4f305652 // shl v18.4s, v18.4s, #16 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x4f385610 // shl v16.4s, v16.4s, #24 .long 0x4eb21e31 // orr v17.16b, v17.16b, v18.16b .long 0x8b897908 // add x8, x8, x9, asr #30 .long 0x4eb01e30 // orr v16.16b, v17.16b, v16.16b .long 0xb50000a4 // cbnz x4, 38d0 <_sk_store_bgra_aarch64+0x70> .long 0x3d800110 // str q16, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x12000489 // and w9, w4, #0x3 .long 0x7100053f // cmp w9, #0x1 .long 0x54000120 // b.eq 38fc <_sk_store_bgra_aarch64+0x9c> // b.none .long 0x7100093f // cmp w9, #0x2 .long 0x540000a0 // b.eq 38f4 <_sk_store_bgra_aarch64+0x94> // b.none .long 0x71000d3f // cmp w9, #0x3 .long 0x54fffee1 // b.ne 38c4 <_sk_store_bgra_aarch64+0x64> // b.any .long 0x91002109 // add x9, x8, #0x8 .long 0x4d008130 // st1 {v16.s}[2], [x9] .long 0xfd000110 // str d16, [x8] .long 0x17fffff3 // b 38c4 <_sk_store_bgra_aarch64+0x64> .long 0x0d008110 // st1 {v16.s}[0], [x8] .long 0x17fffff1 // b 38c4 <_sk_store_bgra_aarch64+0x64> HIDDEN _sk_load_f16_aarch64 .globl _sk_load_f16_aarch64 FUNCTION(_sk_load_f16_aarch64) _sk_load_f16_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29cd08 // add x8, x8, w9, sxtw #3 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897508 // add x8, x8, x9, asr #29 .long 0xb5000124 // cbnz x4, 3944 <_sk_load_f16_aarch64+0x40> .long 0x0c400510 // ld4 {v16.4h-v19.4h}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x0e217a00 // fcvtl v0.4s, v16.4h .long 0x0e217a21 // fcvtl v1.4s, v17.4h .long 0x0e217a42 // fcvtl v2.4s, v18.4h .long 0x0e217a63 // fcvtl v3.4s, v19.4h .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x0d606110 // ld4 {v16.h-v19.h}[0], [x8] .long 0xf100049f // cmp x4, #0x1 .long 0x54fffee0 // b.eq 3928 <_sk_load_f16_aarch64+0x24> // b.none .long 0x91002109 // add x9, x8, #0x8 .long 0x0d606930 // ld4 {v16.h-v19.h}[1], [x9] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fffe63 // b.cc 3928 <_sk_load_f16_aarch64+0x24> // b.lo, b.ul, b.last .long 0x91004108 // add x8, x8, #0x10 .long 0x0d607110 // ld4 {v16.h-v19.h}[2], [x8] .long 0x17fffff0 // b 3928 <_sk_load_f16_aarch64+0x24> HIDDEN _sk_load_f16_dst_aarch64 .globl _sk_load_f16_dst_aarch64 FUNCTION(_sk_load_f16_dst_aarch64) _sk_load_f16_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29cd08 // add x8, x8, w9, sxtw #3 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897508 // add x8, x8, x9, asr #29 .long 0xb5000124 // cbnz x4, 39ac <_sk_load_f16_dst_aarch64+0x40> .long 0x0c400510 // ld4 {v16.4h-v19.4h}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x0e217a04 // fcvtl v4.4s, v16.4h .long 0x0e217a25 // fcvtl v5.4s, v17.4h .long 0x0e217a46 // fcvtl v6.4s, v18.4h .long 0x0e217a67 // fcvtl v7.4s, v19.4h .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x0d606110 // ld4 {v16.h-v19.h}[0], [x8] .long 0xf100049f // cmp x4, #0x1 .long 0x54fffee0 // b.eq 3990 <_sk_load_f16_dst_aarch64+0x24> // b.none .long 0x91002109 // add x9, x8, #0x8 .long 0x0d606930 // ld4 {v16.h-v19.h}[1], [x9] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fffe63 // b.cc 3990 <_sk_load_f16_dst_aarch64+0x24> // b.lo, b.ul, b.last .long 0x91004108 // add x8, x8, #0x10 .long 0x0d607110 // ld4 {v16.h-v19.h}[2], [x8] .long 0x17fffff0 // b 3990 <_sk_load_f16_dst_aarch64+0x24> HIDDEN _sk_gather_f16_aarch64 .globl _sk_gather_f16_aarch64 FUNCTION(_sk_gather_f16_aarch64) _sk_gather_f16_aarch64: .long 0xa9bf7bfd // stp x29, x30, [sp, #-16]! .long 0xd100c3e9 // sub x9, sp, #0x30 .long 0x910003fd // mov x29, sp .long 0x927be93f // and sp, x9, #0xffffffffffffffe0 .long 0xf9400028 // ldr x8, [x1] .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x4ea1b800 // fcvtzs v0.4s, v0.4s .long 0x91002109 // add x9, x8, #0x8 .long 0x4d40c922 // ld1r {v2.4s}, [x9] .long 0xf9400108 // ldr x8, [x8] .long 0x4ea19440 // mla v0.4s, v2.4s, v1.4s .long 0x0e143c0a // mov w10, v0.s[2] .long 0x1e26000c // fmov w12, s0 .long 0x8b2c4d0c // add x12, x8, w12, uxtw #3 .long 0x8b2a4d0a // add x10, x8, w10, uxtw #3 .long 0x0e0c3c09 // mov w9, v0.s[1] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0x0d408540 // ld1 {v0.d}[0], [x10] .long 0x0d408581 // ld1 {v1.d}[0], [x12] .long 0x8b294d09 // add x9, x8, w9, uxtw #3 .long 0x8b2b4d08 // add x8, x8, w11, uxtw #3 .long 0x4d408500 // ld1 {v0.d}[1], [x8] .long 0x4d408521 // ld1 {v1.d}[1], [x9] .long 0x910003e8 // mov x8, sp .long 0xad0003e1 // stp q1, q0, [sp] .long 0x0c400510 // ld4 {v16.4h-v19.4h}, [x8] .long 0xf9400428 // ldr x8, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0x0e217a00 // fcvtl v0.4s, v16.4h .long 0x0e217a21 // fcvtl v1.4s, v17.4h .long 0x0e217a42 // fcvtl v2.4s, v18.4h .long 0x0e217a63 // fcvtl v3.4s, v19.4h .long 0xd63f0100 // blr x8 .long 0x910003bf // mov sp, x29 .long 0xa8c17bfd // ldp x29, x30, [sp], #16 .long 0xd65f03c0 // ret HIDDEN _sk_store_f16_aarch64 .globl _sk_store_f16_aarch64 FUNCTION(_sk_store_f16_aarch64) _sk_store_f16_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x0e216810 // fcvtn v16.4h, v0.4s .long 0x0e216831 // fcvtn v17.4h, v1.4s .long 0x0e216852 // fcvtn v18.4h, v2.4s .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x0e216873 // fcvtn v19.4h, v3.4s .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29cd08 // add x8, x8, w9, sxtw #3 .long 0xd3607c49 // lsl x9, x2, #32 .long 0x8b897508 // add x8, x8, x9, asr #29 .long 0xb50000a4 // cbnz x4, 3aa4 <_sk_store_f16_aarch64+0x40> .long 0x0c000510 // st4 {v16.4h-v19.4h}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0xf100049f // cmp x4, #0x1 .long 0x0d206110 // st4 {v16.h-v19.h}[0], [x8] .long 0x54ffff60 // b.eq 3a98 <_sk_store_f16_aarch64+0x34> // b.none .long 0x91002109 // add x9, x8, #0x8 .long 0xf1000c9f // cmp x4, #0x3 .long 0x0d206930 // st4 {v16.h-v19.h}[1], [x9] .long 0x54fffee3 // b.cc 3a98 <_sk_store_f16_aarch64+0x34> // b.lo, b.ul, b.last .long 0x91004108 // add x8, x8, #0x10 .long 0x0d207110 // st4 {v16.h-v19.h}[2], [x8] .long 0x17fffff4 // b 3a98 <_sk_store_f16_aarch64+0x34> HIDDEN _sk_load_u16_be_aarch64 .globl _sk_load_u16_be_aarch64 FUNCTION(_sk_load_u16_be_aarch64) _sk_load_u16_be_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x531e744a // lsl w10, w2, #2 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0x8b2ac508 // add x8, x8, w10, sxtw #1 .long 0xb5000404 // cbnz x4, 3b68 <_sk_load_u16_be_aarch64+0x9c> .long 0x0c400500 // ld4 {v0.4h-v3.4h}, [x8] .long 0x0f185410 // shl v16.4h, v0.4h, #8 .long 0x2f180411 // ushr v17.4h, v0.4h, #8 .long 0x0f185432 // shl v18.4h, v1.4h, #8 .long 0x2f180433 // ushr v19.4h, v1.4h, #8 .long 0x0f185454 // shl v20.4h, v2.4h, #8 .long 0x2f180455 // ushr v21.4h, v2.4h, #8 .long 0x0f185476 // shl v22.4h, v3.4h, #8 .long 0x2f180460 // ushr v0.4h, v3.4h, #8 .long 0x52a6f008 // mov w8, #0x37800000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x0eb11e01 // orr v1.8b, v16.8b, v17.8b .long 0x0eb31e42 // orr v2.8b, v18.8b, v19.8b .long 0x0eb51e90 // orr v16.8b, v20.8b, v21.8b .long 0x0ea01ec0 // orr v0.8b, v22.8b, v0.8b .long 0x72801008 // movk w8, #0x80 .long 0x2f10a421 // uxtl v1.4s, v1.4h .long 0x2f10a442 // uxtl v2.4s, v2.4h .long 0x2f10a610 // uxtl v16.4s, v16.4h .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x4e040d03 // dup v3.4s, w8 .long 0x6e21d821 // ucvtf v1.4s, v1.4s .long 0x6e21d842 // ucvtf v2.4s, v2.4s .long 0x6e21da10 // ucvtf v16.4s, v16.4s .long 0x6e21d811 // ucvtf v17.4s, v0.4s .long 0x6e23dc20 // fmul v0.4s, v1.4s, v3.4s .long 0x6e23dc41 // fmul v1.4s, v2.4s, v3.4s .long 0x6e23de02 // fmul v2.4s, v16.4s, v3.4s .long 0x6e23de23 // fmul v3.4s, v17.4s, v3.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x0d606100 // ld4 {v0.h-v3.h}[0], [x8] .long 0xf100049f // cmp x4, #0x1 .long 0x54fffc00 // b.eq 3af0 <_sk_load_u16_be_aarch64+0x24> // b.none .long 0x91002109 // add x9, x8, #0x8 .long 0x0d606920 // ld4 {v0.h-v3.h}[1], [x9] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fffb83 // b.cc 3af0 <_sk_load_u16_be_aarch64+0x24> // b.lo, b.ul, b.last .long 0x91004108 // add x8, x8, #0x10 .long 0x0d607100 // ld4 {v0.h-v3.h}[2], [x8] .long 0x17ffffd9 // b 3af0 <_sk_load_u16_be_aarch64+0x24> HIDDEN _sk_load_rgb_u16_be_aarch64 .globl _sk_load_rgb_u16_be_aarch64 FUNCTION(_sk_load_rgb_u16_be_aarch64) _sk_load_rgb_u16_be_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0x0b020449 // add w9, w2, w2, lsl #1 .long 0xd3607d29 // lsl x9, x9, #32 .long 0x8b897d08 // add x8, x8, x9, asr #31 .long 0xb5000384 // cbnz x4, 3c20 <_sk_load_rgb_u16_be_aarch64+0x90> .long 0x0c404500 // ld3 {v0.4h-v2.4h}, [x8] .long 0x0f185403 // shl v3.4h, v0.4h, #8 .long 0x2f180410 // ushr v16.4h, v0.4h, #8 .long 0x0f185431 // shl v17.4h, v1.4h, #8 .long 0x2f180432 // ushr v18.4h, v1.4h, #8 .long 0x0f185453 // shl v19.4h, v2.4h, #8 .long 0x2f180440 // ushr v0.4h, v2.4h, #8 .long 0x52a6f008 // mov w8, #0x37800000 .long 0xf9400425 // ldr x5, [x1, #8] .long 0x0eb01c61 // orr v1.8b, v3.8b, v16.8b .long 0x0eb21e23 // orr v3.8b, v17.8b, v18.8b .long 0x0ea01e60 // orr v0.8b, v19.8b, v0.8b .long 0x72801008 // movk w8, #0x80 .long 0x2f10a421 // uxtl v1.4s, v1.4h .long 0x2f10a463 // uxtl v3.4s, v3.4h .long 0x2f10a400 // uxtl v0.4s, v0.4h .long 0x4e040d02 // dup v2.4s, w8 .long 0x91004028 // add x8, x1, #0x10 .long 0x6e21d821 // ucvtf v1.4s, v1.4s .long 0x6e21d863 // ucvtf v3.4s, v3.4s .long 0x6e21d810 // ucvtf v16.4s, v0.4s .long 0x6e22dc20 // fmul v0.4s, v1.4s, v2.4s .long 0x6e22dc61 // fmul v1.4s, v3.4s, v2.4s .long 0x6e22de02 // fmul v2.4s, v16.4s, v2.4s .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0xaa0803e1 // mov x1, x8 .long 0xd61f00a0 // br x5 .long 0x0d406100 // ld3 {v0.h-v2.h}[0], [x8] .long 0xf100049f // cmp x4, #0x1 .long 0x54fffc80 // b.eq 3bb8 <_sk_load_rgb_u16_be_aarch64+0x28> // b.none .long 0x91001909 // add x9, x8, #0x6 .long 0x0d406920 // ld3 {v0.h-v2.h}[1], [x9] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fffc03 // b.cc 3bb8 <_sk_load_rgb_u16_be_aarch64+0x28> // b.lo, b.ul, b.last .long 0x91003108 // add x8, x8, #0xc .long 0x0d407100 // ld3 {v0.h-v2.h}[2], [x8] .long 0x17ffffdd // b 3bb8 <_sk_load_rgb_u16_be_aarch64+0x28> HIDDEN _sk_store_u16_be_aarch64 .globl _sk_store_u16_be_aarch64 FUNCTION(_sk_store_u16_be_aarch64) _sk_store_u16_be_aarch64: .long 0x52a8efea // mov w10, #0x477f0000 .long 0x729fe00a // movk w10, #0xff00 .long 0x4e040d54 // dup v20.4s, w10 .long 0xf9400028 // ldr x8, [x1] .long 0x6e34dc10 // fmul v16.4s, v0.4s, v20.4s .long 0x6e34dc31 // fmul v17.4s, v1.4s, v20.4s .long 0x6e21aa10 // fcvtnu v16.4s, v16.4s .long 0x6e21aa31 // fcvtnu v17.4s, v17.4s .long 0x0e612a10 // xtn v16.4h, v16.4s .long 0x0e612a31 // xtn v17.4h, v17.4s .long 0x0f185612 // shl v18.4h, v16.4h, #8 .long 0x2f180610 // ushr v16.4h, v16.4h, #8 .long 0x0f185635 // shl v21.4h, v17.4h, #8 .long 0x2f180636 // ushr v22.4h, v17.4h, #8 .long 0x0eb01e50 // orr v16.8b, v18.8b, v16.8b .long 0xf940010a // ldr x10, [x8] .long 0xb9400908 // ldr w8, [x8, #8] .long 0x0eb61eb1 // orr v17.8b, v21.8b, v22.8b .long 0x6e34dc55 // fmul v21.4s, v2.4s, v20.4s .long 0x6e34dc74 // fmul v20.4s, v3.4s, v20.4s .long 0x6e21aab5 // fcvtnu v21.4s, v21.4s .long 0x6e21aa94 // fcvtnu v20.4s, v20.4s .long 0x0e612ab5 // xtn v21.4h, v21.4s .long 0x0e612a94 // xtn v20.4h, v20.4s .long 0x0f1856b6 // shl v22.4h, v21.4h, #8 .long 0x2f1806b5 // ushr v21.4h, v21.4h, #8 .long 0x1b037d08 // mul w8, w8, w3 .long 0x531e7449 // lsl w9, w2, #2 .long 0x0eb51ed2 // orr v18.8b, v22.8b, v21.8b .long 0x0f185695 // shl v21.4h, v20.4h, #8 .long 0x2f180694 // ushr v20.4h, v20.4h, #8 .long 0x8b28c548 // add x8, x10, w8, sxtw #1 .long 0x8b29c508 // add x8, x8, w9, sxtw #1 .long 0x0eb41eb3 // orr v19.8b, v21.8b, v20.8b .long 0xb50000a4 // cbnz x4, 3ce4 <_sk_store_u16_be_aarch64+0x9c> .long 0x0c000510 // st4 {v16.4h-v19.4h}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0xf100049f // cmp x4, #0x1 .long 0x0d206110 // st4 {v16.h-v19.h}[0], [x8] .long 0x54ffff60 // b.eq 3cd8 <_sk_store_u16_be_aarch64+0x90> // b.none .long 0x91002109 // add x9, x8, #0x8 .long 0xf1000c9f // cmp x4, #0x3 .long 0x0d206930 // st4 {v16.h-v19.h}[1], [x9] .long 0x54fffee3 // b.cc 3cd8 <_sk_store_u16_be_aarch64+0x90> // b.lo, b.ul, b.last .long 0x91004108 // add x8, x8, #0x10 .long 0x0d207110 // st4 {v16.h-v19.h}[2], [x8] .long 0x17fffff4 // b 3cd8 <_sk_store_u16_be_aarch64+0x90> HIDDEN _sk_load_f32_aarch64 .globl _sk_load_f32_aarch64 FUNCTION(_sk_load_f32_aarch64) _sk_load_f32_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x531e744a // lsl w10, w2, #2 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0x8b2ac908 // add x8, x8, w10, sxtw #2 .long 0xb50000a4 // cbnz x4, 3d3c <_sk_load_f32_aarch64+0x30> .long 0x4c400900 // ld4 {v0.4s-v3.4s}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x0d60a100 // ld4 {v0.s-v3.s}[0], [x8] .long 0xf100049f // cmp x4, #0x1 .long 0x54ffff60 // b.eq 3d30 <_sk_load_f32_aarch64+0x24> // b.none .long 0x91004109 // add x9, x8, #0x10 .long 0x0d60b120 // ld4 {v0.s-v3.s}[1], [x9] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fffee3 // b.cc 3d30 <_sk_load_f32_aarch64+0x24> // b.lo, b.ul, b.last .long 0x91008108 // add x8, x8, #0x20 .long 0x4d60a100 // ld4 {v0.s-v3.s}[2], [x8] .long 0x17fffff4 // b 3d30 <_sk_load_f32_aarch64+0x24> HIDDEN _sk_load_f32_dst_aarch64 .globl _sk_load_f32_dst_aarch64 FUNCTION(_sk_load_f32_dst_aarch64) _sk_load_f32_dst_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x531e744a // lsl w10, w2, #2 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0x8b2ac908 // add x8, x8, w10, sxtw #2 .long 0xb50000a4 // cbnz x4, 3d94 <_sk_load_f32_dst_aarch64+0x30> .long 0x4c400904 // ld4 {v4.4s-v7.4s}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0x0d60a104 // ld4 {v4.s-v7.s}[0], [x8] .long 0xf100049f // cmp x4, #0x1 .long 0x54ffff60 // b.eq 3d88 <_sk_load_f32_dst_aarch64+0x24> // b.none .long 0x91004109 // add x9, x8, #0x10 .long 0x0d60b124 // ld4 {v4.s-v7.s}[1], [x9] .long 0xf1000c9f // cmp x4, #0x3 .long 0x54fffee3 // b.cc 3d88 <_sk_load_f32_dst_aarch64+0x24> // b.lo, b.ul, b.last .long 0x91008108 // add x8, x8, #0x20 .long 0x4d60a104 // ld4 {v4.s-v7.s}[2], [x8] .long 0x17fffff4 // b 3d88 <_sk_load_f32_dst_aarch64+0x24> HIDDEN _sk_store_f32_aarch64 .globl _sk_store_f32_aarch64 FUNCTION(_sk_store_f32_aarch64) _sk_store_f32_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x531e744a // lsl w10, w2, #2 .long 0xb9400909 // ldr w9, [x8, #8] .long 0xf9400108 // ldr x8, [x8] .long 0x1b037d29 // mul w9, w9, w3 .long 0x8b29c908 // add x8, x8, w9, sxtw #2 .long 0x8b2ac908 // add x8, x8, w10, sxtw #2 .long 0xb50000a4 // cbnz x4, 3dec <_sk_store_f32_aarch64+0x30> .long 0x4c000900 // st4 {v0.4s-v3.4s}, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 .long 0xf100049f // cmp x4, #0x1 .long 0x0d20a100 // st4 {v0.s-v3.s}[0], [x8] .long 0x54ffff60 // b.eq 3de0 <_sk_store_f32_aarch64+0x24> // b.none .long 0x91004109 // add x9, x8, #0x10 .long 0xf1000c9f // cmp x4, #0x3 .long 0x0d20b120 // st4 {v0.s-v3.s}[1], [x9] .long 0x54fffee3 // b.cc 3de0 <_sk_store_f32_aarch64+0x24> // b.lo, b.ul, b.last .long 0x91008108 // add x8, x8, #0x20 .long 0x4d20a100 // st4 {v0.s-v3.s}[2], [x8] .long 0x17fffff4 // b 3de0 <_sk_store_f32_aarch64+0x24> HIDDEN _sk_clamp_x_aarch64 .globl _sk_clamp_x_aarch64 FUNCTION(_sk_clamp_x_aarch64) _sk_clamp_x_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x6f00e411 // movi v17.2d, #0x0 .long 0x4e20f620 // fmax v0.4s, v17.4s, v0.4s .long 0x6f07e7f1 // movi v17.2d, #0xffffffffffffffff .long 0x4d40c910 // ld1r {v16.4s}, [x8] .long 0x4eb18610 // add v16.4s, v16.4s, v17.4s .long 0x4eb0f400 // fmin v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_clamp_y_aarch64 .globl _sk_clamp_y_aarch64 FUNCTION(_sk_clamp_y_aarch64) _sk_clamp_y_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x6f00e411 // movi v17.2d, #0x0 .long 0x4e21f621 // fmax v1.4s, v17.4s, v1.4s .long 0x6f07e7f1 // movi v17.2d, #0xffffffffffffffff .long 0x4d40c910 // ld1r {v16.4s}, [x8] .long 0x4eb18610 // add v16.4s, v16.4s, v17.4s .long 0x4eb0f421 // fmin v1.4s, v1.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_repeat_x_aarch64 .globl _sk_repeat_x_aarch64 FUNCTION(_sk_repeat_x_aarch64) _sk_repeat_x_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ddfc910 // ld1r {v16.4s}, [x8], #4 .long 0xbd400111 // ldr s17, [x8] .long 0x4f919011 // fmul v17.4s, v0.4s, v17.s[0] .long 0x4e219a31 // frintm v17.4s, v17.4s .long 0x4eb1ce00 // fmls v0.4s, v16.4s, v17.4s .long 0x6f07e7f1 // movi v17.2d, #0xffffffffffffffff .long 0x4eb18610 // add v16.4s, v16.4s, v17.4s .long 0x6f00e411 // movi v17.2d, #0x0 .long 0x4e20f620 // fmax v0.4s, v17.4s, v0.4s .long 0x4eb0f400 // fmin v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_repeat_y_aarch64 .globl _sk_repeat_y_aarch64 FUNCTION(_sk_repeat_y_aarch64) _sk_repeat_y_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ddfc910 // ld1r {v16.4s}, [x8], #4 .long 0xbd400111 // ldr s17, [x8] .long 0x4f919031 // fmul v17.4s, v1.4s, v17.s[0] .long 0x4e219a31 // frintm v17.4s, v17.4s .long 0x4eb1ce01 // fmls v1.4s, v16.4s, v17.4s .long 0x6f07e7f1 // movi v17.2d, #0xffffffffffffffff .long 0x4eb18610 // add v16.4s, v16.4s, v17.4s .long 0x6f00e411 // movi v17.2d, #0x0 .long 0x4e21f621 // fmax v1.4s, v17.4s, v1.4s .long 0x4eb0f421 // fmin v1.4s, v1.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_mirror_x_aarch64 .globl _sk_mirror_x_aarch64 FUNCTION(_sk_mirror_x_aarch64) _sk_mirror_x_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x1e2c1012 // fmov s18, #5.000000000000000000e-01 .long 0x6f00e413 // movi v19.2d, #0x0 .long 0x2d404111 // ldp s17, s16, [x8] .long 0x1e320a10 // fmul s16, s16, s18 .long 0x4e040632 // dup v18.4s, v17.s[0] .long 0x4eb2d400 // fsub v0.4s, v0.4s, v18.4s .long 0x4f909010 // fmul v16.4s, v0.4s, v16.s[0] .long 0x1e312a31 // fadd s17, s17, s17 .long 0x4e219a10 // frintm v16.4s, v16.4s .long 0x4f915200 // fmls v0.4s, v16.4s, v17.s[0] .long 0x4eb2d400 // fsub v0.4s, v0.4s, v18.4s .long 0x6f07e7f0 // movi v16.2d, #0xffffffffffffffff .long 0x4ea0f800 // fabs v0.4s, v0.4s .long 0x4eb08650 // add v16.4s, v18.4s, v16.4s .long 0x4e20f660 // fmax v0.4s, v19.4s, v0.4s .long 0x4eb0f400 // fmin v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_mirror_y_aarch64 .globl _sk_mirror_y_aarch64 FUNCTION(_sk_mirror_y_aarch64) _sk_mirror_y_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x1e2c1012 // fmov s18, #5.000000000000000000e-01 .long 0x6f00e413 // movi v19.2d, #0x0 .long 0x2d404111 // ldp s17, s16, [x8] .long 0x1e320a10 // fmul s16, s16, s18 .long 0x4e040632 // dup v18.4s, v17.s[0] .long 0x4eb2d421 // fsub v1.4s, v1.4s, v18.4s .long 0x4f909030 // fmul v16.4s, v1.4s, v16.s[0] .long 0x1e312a31 // fadd s17, s17, s17 .long 0x4e219a10 // frintm v16.4s, v16.4s .long 0x4f915201 // fmls v1.4s, v16.4s, v17.s[0] .long 0x4eb2d421 // fsub v1.4s, v1.4s, v18.4s .long 0x6f07e7f0 // movi v16.2d, #0xffffffffffffffff .long 0x4ea0f821 // fabs v1.4s, v1.4s .long 0x4eb08650 // add v16.4s, v18.4s, v16.4s .long 0x4e21f661 // fmax v1.4s, v19.4s, v1.4s .long 0x4eb0f421 // fmin v1.4s, v1.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_clamp_x_1_aarch64 .globl _sk_clamp_x_1_aarch64 FUNCTION(_sk_clamp_x_1_aarch64) _sk_clamp_x_1_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6f00e410 // movi v16.2d, #0x0 .long 0x4e20f600 // fmax v0.4s, v16.4s, v0.4s .long 0x4f03f610 // fmov v16.4s, #1.000000000000000000e+00 .long 0x4eb0f400 // fmin v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_repeat_x_1_aarch64 .globl _sk_repeat_x_1_aarch64 FUNCTION(_sk_repeat_x_1_aarch64) _sk_repeat_x_1_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e219810 // frintm v16.4s, v0.4s .long 0x4eb0d400 // fsub v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_mirror_x_1_aarch64 .globl _sk_mirror_x_1_aarch64 FUNCTION(_sk_mirror_x_1_aarch64) _sk_mirror_x_1_aarch64: .long 0x4f07f610 // fmov v16.4s, #-1.000000000000000000e+00 .long 0x4f0167f1 // movi v17.4s, #0x3f, lsl #24 .long 0x4e30d400 // fadd v0.4s, v0.4s, v16.4s .long 0x6e31dc11 // fmul v17.4s, v0.4s, v17.4s .long 0x4e219a31 // frintm v17.4s, v17.4s .long 0x4e31d631 // fadd v17.4s, v17.4s, v17.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4eb1d400 // fsub v0.4s, v0.4s, v17.4s .long 0x4e30d400 // fadd v0.4s, v0.4s, v16.4s .long 0x4ea0f800 // fabs v0.4s, v0.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_luminance_to_alpha_aarch64 .globl _sk_luminance_to_alpha_aarch64 FUNCTION(_sk_luminance_to_alpha_aarch64) _sk_luminance_to_alpha_aarch64: .long 0x52a7cb28 // mov w8, #0x3e590000 .long 0x72967a08 // movk w8, #0xb3d0 .long 0x4e040d11 // dup v17.4s, w8 .long 0x52a7e6e8 // mov w8, #0x3f370000 .long 0x7282eb28 // movk w8, #0x1759 .long 0x4ea01c10 // mov v16.16b, v0.16b .long 0x4e040d00 // dup v0.4s, w8 .long 0x52a7b268 // mov w8, #0x3d930000 .long 0xf8408425 // ldr x5, [x1], #8 .long 0x729bb308 // movk w8, #0xdd98 .long 0x6e20dc23 // fmul v3.4s, v1.4s, v0.4s .long 0x4e30ce23 // fmla v3.4s, v17.4s, v16.4s .long 0x4e040d10 // dup v16.4s, w8 .long 0x6f00e400 // movi v0.2d, #0x0 .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x4e22ce03 // fmla v3.4s, v16.4s, v2.4s .long 0x6f00e402 // movi v2.2d, #0x0 .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_translate_aarch64 .globl _sk_matrix_translate_aarch64 FUNCTION(_sk_matrix_translate_aarch64) _sk_matrix_translate_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4ddfc910 // ld1r {v16.4s}, [x8], #4 .long 0x4d40c911 // ld1r {v17.4s}, [x8] .long 0x4e20d600 // fadd v0.4s, v16.4s, v0.4s .long 0x4e21d621 // fadd v1.4s, v17.4s, v1.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_scale_translate_aarch64 .globl _sk_matrix_scale_translate_aarch64 FUNCTION(_sk_matrix_scale_translate_aarch64) _sk_matrix_scale_translate_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803e9 // mov x9, x8 .long 0x2d414d12 // ldp s18, s19, [x8, #8] .long 0x4ddfc930 // ld1r {v16.4s}, [x9], #4 .long 0x4d40c931 // ld1r {v17.4s}, [x9] .long 0x4f921010 // fmla v16.4s, v0.4s, v18.s[0] .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4f931031 // fmla v17.4s, v1.4s, v19.s[0] .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_2x3_aarch64 .globl _sk_matrix_2x3_aarch64 FUNCTION(_sk_matrix_2x3_aarch64) _sk_matrix_2x3_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803e9 // mov x9, x8 .long 0x9100410a // add x10, x8, #0x10 .long 0x4ddfc932 // ld1r {v18.4s}, [x9], #4 .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x2d415113 // ldp s19, s20, [x8, #8] .long 0x9100510a // add x10, x8, #0x14 .long 0x4d40c951 // ld1r {v17.4s}, [x10] .long 0x4f931030 // fmla v16.4s, v1.4s, v19.s[0] .long 0xbd400133 // ldr s19, [x9] .long 0x4f941031 // fmla v17.4s, v1.4s, v20.s[0] .long 0x4e20ce50 // fmla v16.4s, v18.4s, v0.4s .long 0x4f931011 // fmla v17.4s, v0.4s, v19.s[0] .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_3x4_aarch64 .globl _sk_matrix_3x4_aarch64 FUNCTION(_sk_matrix_3x4_aarch64) _sk_matrix_3x4_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803e9 // mov x9, x8 .long 0x9100910a // add x10, x8, #0x24 .long 0x4ddfc933 // ld1r {v19.4s}, [x9], #4 .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x9100a10a // add x10, x8, #0x28 .long 0x4d40c951 // ld1r {v17.4s}, [x10] .long 0x9100b10a // add x10, x8, #0x2c .long 0x2d435514 // ldp s20, s21, [x8, #24] .long 0xbd402116 // ldr s22, [x8, #32] .long 0x4d40c952 // ld1r {v18.4s}, [x10] .long 0x4f941050 // fmla v16.4s, v2.4s, v20.s[0] .long 0x4f951051 // fmla v17.4s, v2.4s, v21.s[0] .long 0x4f961052 // fmla v18.4s, v2.4s, v22.s[0] .long 0x2d425502 // ldp s2, s21, [x8, #16] .long 0x2d415d14 // ldp s20, s23, [x8, #8] .long 0x4f821031 // fmla v17.4s, v1.4s, v2.s[0] .long 0xbd400122 // ldr s2, [x9] .long 0x4f971030 // fmla v16.4s, v1.4s, v23.s[0] .long 0x4f951032 // fmla v18.4s, v1.4s, v21.s[0] .long 0x4e20ce70 // fmla v16.4s, v19.4s, v0.4s .long 0x4f941012 // fmla v18.4s, v0.4s, v20.s[0] .long 0x4f821011 // fmla v17.4s, v0.4s, v2.s[0] .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0x4eb21e42 // mov v2.16b, v18.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_4x5_aarch64 .globl _sk_matrix_4x5_aarch64 FUNCTION(_sk_matrix_4x5_aarch64) _sk_matrix_4x5_aarch64: .long 0xf9400029 // ldr x9, [x1] .long 0xaa0903e8 // mov x8, x9 .long 0x9101012a // add x10, x9, #0x40 .long 0x4ddfc914 // ld1r {v20.4s}, [x8], #4 .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x9101112a // add x10, x9, #0x44 .long 0x4d40c951 // ld1r {v17.4s}, [x10] .long 0x9101212a // add x10, x9, #0x48 .long 0x4d40c952 // ld1r {v18.4s}, [x10] .long 0x2d465533 // ldp s19, s21, [x9, #48] .long 0x2d475d36 // ldp s22, s23, [x9, #56] .long 0x9101312a // add x10, x9, #0x4c .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f931070 // fmla v16.4s, v3.4s, v19.s[0] .long 0x4d40c953 // ld1r {v19.4s}, [x10] .long 0x4f951071 // fmla v17.4s, v3.4s, v21.s[0] .long 0x4f961072 // fmla v18.4s, v3.4s, v22.s[0] .long 0x2d445935 // ldp s21, s22, [x9, #32] .long 0x4f971073 // fmla v19.4s, v3.4s, v23.s[0] .long 0x2d455d23 // ldp s3, s23, [x9, #40] .long 0x91004021 // add x1, x1, #0x10 .long 0x4f951050 // fmla v16.4s, v2.4s, v21.s[0] .long 0x4f961051 // fmla v17.4s, v2.4s, v22.s[0] .long 0x2d425935 // ldp s21, s22, [x9, #16] .long 0x4f971053 // fmla v19.4s, v2.4s, v23.s[0] .long 0x4f831052 // fmla v18.4s, v2.4s, v3.s[0] .long 0x2d410d22 // ldp s2, s3, [x9, #8] .long 0x4f951030 // fmla v16.4s, v1.4s, v21.s[0] .long 0x2d435d35 // ldp s21, s23, [x9, #24] .long 0x4f961031 // fmla v17.4s, v1.4s, v22.s[0] .long 0xbd400116 // ldr s22, [x8] .long 0x4e20ce90 // fmla v16.4s, v20.4s, v0.4s .long 0x4f951032 // fmla v18.4s, v1.4s, v21.s[0] .long 0x4f971033 // fmla v19.4s, v1.4s, v23.s[0] .long 0x4f821012 // fmla v18.4s, v0.4s, v2.s[0] .long 0x4f831013 // fmla v19.4s, v0.4s, v3.s[0] .long 0x4f961011 // fmla v17.4s, v0.4s, v22.s[0] .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0x4eb21e42 // mov v2.16b, v18.16b .long 0x4eb31e63 // mov v3.16b, v19.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_4x3_aarch64 .globl _sk_matrix_4x3_aarch64 FUNCTION(_sk_matrix_4x3_aarch64) _sk_matrix_4x3_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0xaa0803e9 // mov x9, x8 .long 0x9100810a // add x10, x8, #0x20 .long 0x4ddfc932 // ld1r {v18.4s}, [x9], #4 .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x9100910a // add x10, x8, #0x24 .long 0x4d40c951 // ld1r {v17.4s}, [x10] .long 0x9100a10a // add x10, x8, #0x28 .long 0x2d425113 // ldp s19, s20, [x8, #16] .long 0x4d40c942 // ld1r {v2.4s}, [x10] .long 0x9100b10a // add x10, x8, #0x2c .long 0x2d435915 // ldp s21, s22, [x8, #24] .long 0x4d40c943 // ld1r {v3.4s}, [x10] .long 0x4f931030 // fmla v16.4s, v1.4s, v19.s[0] .long 0x4e20ce50 // fmla v16.4s, v18.4s, v0.4s .long 0xbd400132 // ldr s18, [x9] .long 0x4f941031 // fmla v17.4s, v1.4s, v20.s[0] .long 0x4f951022 // fmla v2.4s, v1.4s, v21.s[0] .long 0x4f961023 // fmla v3.4s, v1.4s, v22.s[0] .long 0x2d414d01 // ldp s1, s19, [x8, #8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f921011 // fmla v17.4s, v0.4s, v18.s[0] .long 0x91004021 // add x1, x1, #0x10 .long 0x4f811002 // fmla v2.4s, v0.4s, v1.s[0] .long 0x4f931003 // fmla v3.4s, v0.4s, v19.s[0] .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x4eb11e21 // mov v1.16b, v17.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_matrix_perspective_aarch64 .globl _sk_matrix_perspective_aarch64 FUNCTION(_sk_matrix_perspective_aarch64) _sk_matrix_perspective_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803e9 // mov x9, x8 .long 0x9100510a // add x10, x8, #0x14 .long 0x4ddfc930 // ld1r {v16.4s}, [x9], #4 .long 0x4d40c951 // ld1r {v17.4s}, [x10] .long 0x9100810a // add x10, x8, #0x20 .long 0x4d40c952 // ld1r {v18.4s}, [x10] .long 0x2d41d113 // ldp s19, s20, [x8, #12] .long 0x2d435915 // ldp s21, s22, [x8, #24] .long 0x91002108 // add x8, x8, #0x8 .long 0x4f941031 // fmla v17.4s, v1.4s, v20.s[0] .long 0x4d40c914 // ld1r {v20.4s}, [x8] .long 0x4f961032 // fmla v18.4s, v1.4s, v22.s[0] .long 0xbd400136 // ldr s22, [x9] .long 0x4f951012 // fmla v18.4s, v0.4s, v21.s[0] .long 0x4f931011 // fmla v17.4s, v0.4s, v19.s[0] .long 0x4f961034 // fmla v20.4s, v1.4s, v22.s[0] .long 0x4ea1da41 // frecpe v1.4s, v18.4s .long 0x4e21fe52 // frecps v18.4s, v18.4s, v1.4s .long 0x6e32dc32 // fmul v18.4s, v1.4s, v18.4s .long 0x4e20ce14 // fmla v20.4s, v16.4s, v0.4s .long 0x6e32de21 // fmul v1.4s, v17.4s, v18.4s .long 0x6e32de80 // fmul v0.4s, v20.4s, v18.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_evenly_spaced_gradient_aarch64 .globl _sk_evenly_spaced_gradient_aarch64 FUNCTION(_sk_evenly_spaced_gradient_aarch64) _sk_evenly_spaced_gradient_aarch64: .long 0xd10043ff // sub sp, sp, #0x10 .long 0xaa0103e8 // mov x8, x1 .long 0x91002109 // add x9, x8, #0x8 .long 0xf90007e9 // str x9, [sp, #8] .long 0xf841042a // ldr x10, [x1], #16 .long 0xa940254b // ldp x11, x9, [x10] .long 0xa942354c // ldp x12, x13, [x10, #32] .long 0xa9413d4e // ldp x14, x15, [x10, #16] .long 0xa9434550 // ldp x16, x17, [x10, #48] .long 0xd100056b // sub x11, x11, #0x1 .long 0x9e230161 // ucvtf s1, x11 .long 0xf940214a // ldr x10, [x10, #64] .long 0x4f819001 // fmul v1.4s, v0.4s, v1.s[0] .long 0x4ea1b821 // fcvtzs v1.4s, v1.4s .long 0x6f20a422 // uxtl2 v2.2d, v1.4s .long 0x2f20a421 // uxtl v1.2d, v1.2s .long 0x9e660025 // fmov x5, d1 .long 0x9e660047 // fmov x7, d2 .long 0x4e183c2b // mov x11, v1.d[1] .long 0x4e183c46 // mov x6, v2.d[1] .long 0xbc677921 // ldr s1, [x9, x7, lsl #2] .long 0xbc6779a2 // ldr s2, [x13, x7, lsl #2] .long 0xbc6779c3 // ldr s3, [x14, x7, lsl #2] .long 0xbc677a11 // ldr s17, [x16, x7, lsl #2] .long 0xbc6779f2 // ldr s18, [x15, x7, lsl #2] .long 0xbc677a33 // ldr s19, [x17, x7, lsl #2] .long 0xbc677994 // ldr s20, [x12, x7, lsl #2] .long 0xbc677955 // ldr s21, [x10, x7, lsl #2] .long 0x8b050927 // add x7, x9, x5, lsl #2 .long 0x0d4080f6 // ld1 {v22.s}[0], [x7] .long 0x8b0509a7 // add x7, x13, x5, lsl #2 .long 0x0d4080f0 // ld1 {v16.s}[0], [x7] .long 0x8b0b0927 // add x7, x9, x11, lsl #2 .long 0x0d4090f6 // ld1 {v22.s}[1], [x7] .long 0x8b0509c7 // add x7, x14, x5, lsl #2 .long 0x0d4080f7 // ld1 {v23.s}[0], [x7] .long 0x8b050a07 // add x7, x16, x5, lsl #2 .long 0x6e140436 // mov v22.s[2], v1.s[0] .long 0x0d4080e1 // ld1 {v1.s}[0], [x7] .long 0x8b0b09a7 // add x7, x13, x11, lsl #2 .long 0x0d4090f0 // ld1 {v16.s}[1], [x7] .long 0x8b0b09c7 // add x7, x14, x11, lsl #2 .long 0x0d4090f7 // ld1 {v23.s}[1], [x7] .long 0x8b0509e7 // add x7, x15, x5, lsl #2 .long 0x0d4080f8 // ld1 {v24.s}[0], [x7] .long 0x8b050a27 // add x7, x17, x5, lsl #2 .long 0x6e140450 // mov v16.s[2], v2.s[0] .long 0x0d4080e2 // ld1 {v2.s}[0], [x7] .long 0x8b0b0a07 // add x7, x16, x11, lsl #2 .long 0x0d4090e1 // ld1 {v1.s}[1], [x7] .long 0x8b0b09e7 // add x7, x15, x11, lsl #2 .long 0x0d4090f8 // ld1 {v24.s}[1], [x7] .long 0x8b050987 // add x7, x12, x5, lsl #2 .long 0x8b050945 // add x5, x10, x5, lsl #2 .long 0x6e140477 // mov v23.s[2], v3.s[0] .long 0x0d4080a3 // ld1 {v3.s}[0], [x5] .long 0x8b0b0a25 // add x5, x17, x11, lsl #2 .long 0x6e140621 // mov v1.s[2], v17.s[0] .long 0x0d4080f1 // ld1 {v17.s}[0], [x7] .long 0x0d4090a2 // ld1 {v2.s}[1], [x5] .long 0x8b0b0985 // add x5, x12, x11, lsl #2 .long 0x6e140658 // mov v24.s[2], v18.s[0] .long 0x0d4090b1 // ld1 {v17.s}[1], [x5] .long 0x6e140662 // mov v2.s[2], v19.s[0] .long 0xbc667932 // ldr s18, [x9, x6, lsl #2] .long 0xbc6679b3 // ldr s19, [x13, x6, lsl #2] .long 0x6e140691 // mov v17.s[2], v20.s[0] .long 0xbc6679d4 // ldr s20, [x14, x6, lsl #2] .long 0x6e1c0656 // mov v22.s[3], v18.s[0] .long 0xbc667a12 // ldr s18, [x16, x6, lsl #2] .long 0x6e1c0670 // mov v16.s[3], v19.s[0] .long 0xbc6679f3 // ldr s19, [x15, x6, lsl #2] .long 0x8b0b094b // add x11, x10, x11, lsl #2 .long 0x0d409163 // ld1 {v3.s}[1], [x11] .long 0x6e1c0697 // mov v23.s[3], v20.s[0] .long 0xbc667a34 // ldr s20, [x17, x6, lsl #2] .long 0x6e1c0641 // mov v1.s[3], v18.s[0] .long 0xbc667992 // ldr s18, [x12, x6, lsl #2] .long 0x6e1c0678 // mov v24.s[3], v19.s[0] .long 0xbc667953 // ldr s19, [x10, x6, lsl #2] .long 0xf9400505 // ldr x5, [x8, #8] .long 0x6e1406a3 // mov v3.s[2], v21.s[0] .long 0x6e1c0682 // mov v2.s[3], v20.s[0] .long 0x6e1c0651 // mov v17.s[3], v18.s[0] .long 0x6e1c0663 // mov v3.s[3], v19.s[0] .long 0x4e20ced0 // fmla v16.4s, v22.4s, v0.4s .long 0x4e20cee1 // fmla v1.4s, v23.4s, v0.4s .long 0x4e20cf02 // fmla v2.4s, v24.4s, v0.4s .long 0x4e20ce23 // fmla v3.4s, v17.4s, v0.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x910043ff // add sp, sp, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_gauss_a_to_rgba_aarch64 .globl _sk_gauss_a_to_rgba_aarch64 FUNCTION(_sk_gauss_a_to_rgba_aarch64) _sk_gauss_a_to_rgba_aarch64: .long 0x52b80228 // mov w8, #0xc0110000 .long 0x728205a8 // movk w8, #0x102d .long 0x52a80729 // mov w9, #0x40390000 .long 0x728f0249 // movk w9, #0x7812 .long 0x4e040d00 // dup v0.4s, w8 .long 0x52a7cb48 // mov w8, #0x3e5a0000 .long 0x72928408 // movk w8, #0x9420 .long 0x4e040d21 // dup v1.4s, w9 .long 0x52a7c3c9 // mov w9, #0x3e1e0000 .long 0x7293a089 // movk w9, #0x9d04 .long 0x4e040d02 // dup v2.4s, w8 .long 0x52a73428 // mov w8, #0x39a10000 .long 0x4e23cc01 // fmla v1.4s, v0.4s, v3.4s .long 0x72830008 // movk w8, #0x1800 .long 0x4e040d30 // dup v16.4s, w9 .long 0xf8408425 // ldr x5, [x1], #8 .long 0x4e23cc22 // fmla v2.4s, v1.4s, v3.4s .long 0x4e040d00 // dup v0.4s, w8 .long 0x4e23cc50 // fmla v16.4s, v2.4s, v3.4s .long 0x4e23ce00 // fmla v0.4s, v16.4s, v3.4s .long 0x4ea01c01 // mov v1.16b, v0.16b .long 0x4ea01c02 // mov v2.16b, v0.16b .long 0x4ea01c03 // mov v3.16b, v0.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_gradient_aarch64 .globl _sk_gradient_aarch64 FUNCTION(_sk_gradient_aarch64) _sk_gradient_aarch64: .long 0xd10043ff // sub sp, sp, #0x10 .long 0x91002028 // add x8, x1, #0x8 .long 0xf90007e8 // str x8, [sp, #8] .long 0xf9400028 // ldr x8, [x1] .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x6f00e411 // movi v17.2d, #0x0 .long 0xf9400109 // ldr x9, [x8] .long 0xf100093f // cmp x9, #0x2 .long 0x540001c3 // b.cc 446c <_sk_gradient_aarch64+0x58> // b.lo, b.ul, b.last .long 0xf940250a // ldr x10, [x8, #72] .long 0xd1000529 // sub x9, x9, #0x1 .long 0x6f00e401 // movi v1.2d, #0x0 .long 0x4f000422 // movi v2.4s, #0x1 .long 0x9100114a // add x10, x10, #0x4 .long 0x4ddfc943 // ld1r {v3.4s}, [x10], #4 .long 0xd1000529 // sub x9, x9, #0x1 .long 0x6e23e403 // fcmge v3.4s, v0.4s, v3.4s .long 0x4e221c63 // and v3.16b, v3.16b, v2.16b .long 0x4ea18461 // add v1.4s, v3.4s, v1.4s .long 0xb5ffff69 // cbnz x9, 444c <_sk_gradient_aarch64+0x38> .long 0x6f20a431 // uxtl2 v17.2d, v1.4s .long 0x2f20a421 // uxtl v1.2d, v1.2s .long 0xa940b10a // ldp x10, x12, [x8, #8] .long 0xa942b90d // ldp x13, x14, [x8, #40] .long 0x9e66002b // fmov x11, d1 .long 0xa941c10f // ldp x15, x16, [x8, #24] .long 0x8b0b0941 // add x1, x10, x11, lsl #2 .long 0xa943a111 // ldp x17, x8, [x8, #56] .long 0x0d408032 // ld1 {v18.s}[0], [x1] .long 0x8b0b09a1 // add x1, x13, x11, lsl #2 .long 0x0d408030 // ld1 {v16.s}[0], [x1] .long 0x8b0b0981 // add x1, x12, x11, lsl #2 .long 0x0d408033 // ld1 {v19.s}[0], [x1] .long 0x8b0b09c1 // add x1, x14, x11, lsl #2 .long 0x4e183c29 // mov x9, v1.d[1] .long 0x0d408021 // ld1 {v1.s}[0], [x1] .long 0x8b0b09e1 // add x1, x15, x11, lsl #2 .long 0x0d408034 // ld1 {v20.s}[0], [x1] .long 0x8b0b0a21 // add x1, x17, x11, lsl #2 .long 0x0d408022 // ld1 {v2.s}[0], [x1] .long 0x8b0b0a01 // add x1, x16, x11, lsl #2 .long 0x8b0b090b // add x11, x8, x11, lsl #2 .long 0x0d408163 // ld1 {v3.s}[0], [x11] .long 0x8b09094b // add x11, x10, x9, lsl #2 .long 0x0d409172 // ld1 {v18.s}[1], [x11] .long 0x8b0909ab // add x11, x13, x9, lsl #2 .long 0x0d409170 // ld1 {v16.s}[1], [x11] .long 0x8b09098b // add x11, x12, x9, lsl #2 .long 0x0d409173 // ld1 {v19.s}[1], [x11] .long 0x8b0909cb // add x11, x14, x9, lsl #2 .long 0x0d409161 // ld1 {v1.s}[1], [x11] .long 0x8b0909eb // add x11, x15, x9, lsl #2 .long 0x9e660225 // fmov x5, d17 .long 0x0d409174 // ld1 {v20.s}[1], [x11] .long 0x4e183e2b // mov x11, v17.d[1] .long 0xbc6b7951 // ldr s17, [x10, x11, lsl #2] .long 0x8b05094a // add x10, x10, x5, lsl #2 .long 0x4d408152 // ld1 {v18.s}[2], [x10] .long 0x8b0509aa // add x10, x13, x5, lsl #2 .long 0x0d408035 // ld1 {v21.s}[0], [x1] .long 0xbc6b79b6 // ldr s22, [x13, x11, lsl #2] .long 0x4d408150 // ld1 {v16.s}[2], [x10] .long 0x8b05098a // add x10, x12, x5, lsl #2 .long 0x4d408153 // ld1 {v19.s}[2], [x10] .long 0x8b0509ca // add x10, x14, x5, lsl #2 .long 0x4d408141 // ld1 {v1.s}[2], [x10] .long 0x8b090a2a // add x10, x17, x9, lsl #2 .long 0xbc6b7997 // ldr s23, [x12, x11, lsl #2] .long 0x8b0509ec // add x12, x15, x5, lsl #2 .long 0x0d409142 // ld1 {v2.s}[1], [x10] .long 0x8b090a0a // add x10, x16, x9, lsl #2 .long 0x8b090909 // add x9, x8, x9, lsl #2 .long 0x6e1c0632 // mov v18.s[3], v17.s[0] .long 0xbc6b79d1 // ldr s17, [x14, x11, lsl #2] .long 0x6e1c06d0 // mov v16.s[3], v22.s[0] .long 0xbc6b79f6 // ldr s22, [x15, x11, lsl #2] .long 0x0d409155 // ld1 {v21.s}[1], [x10] .long 0x4d408194 // ld1 {v20.s}[2], [x12] .long 0x0d409123 // ld1 {v3.s}[1], [x9] .long 0xf94007e1 // ldr x1, [sp, #8] .long 0x8b050a2d // add x13, x17, x5, lsl #2 .long 0x8b050a0e // add x14, x16, x5, lsl #2 .long 0x8b05090f // add x15, x8, x5, lsl #2 .long 0x6e1c06f3 // mov v19.s[3], v23.s[0] .long 0xbc6b7a37 // ldr s23, [x17, x11, lsl #2] .long 0x6e1c0621 // mov v1.s[3], v17.s[0] .long 0xbc6b7a11 // ldr s17, [x16, x11, lsl #2] .long 0x4d4081a2 // ld1 {v2.s}[2], [x13] .long 0x4d4081d5 // ld1 {v21.s}[2], [x14] .long 0x6e1c06d4 // mov v20.s[3], v22.s[0] .long 0xbc6b7916 // ldr s22, [x8, x11, lsl #2] .long 0x4d4081e3 // ld1 {v3.s}[2], [x15] .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e1c06e2 // mov v2.s[3], v23.s[0] .long 0x6e1c0635 // mov v21.s[3], v17.s[0] .long 0x6e1c06c3 // mov v3.s[3], v22.s[0] .long 0x4e20ce50 // fmla v16.4s, v18.4s, v0.4s .long 0x4e20ce61 // fmla v1.4s, v19.4s, v0.4s .long 0x4e20ce82 // fmla v2.4s, v20.4s, v0.4s .long 0x4e20cea3 // fmla v3.4s, v21.4s, v0.4s .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0x910043ff // add sp, sp, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_evenly_spaced_2_stop_gradient_aarch64 .globl _sk_evenly_spaced_2_stop_gradient_aarch64 FUNCTION(_sk_evenly_spaced_2_stop_gradient_aarch64) _sk_evenly_spaced_2_stop_gradient_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0xaa0803e9 // mov x9, x8 .long 0x9100410a // add x10, x8, #0x10 .long 0x4ddfc931 // ld1r {v17.4s}, [x9], #4 .long 0x4d40c950 // ld1r {v16.4s}, [x10] .long 0x9100510a // add x10, x8, #0x14 .long 0x4d40c941 // ld1r {v1.4s}, [x10] .long 0x9100610a // add x10, x8, #0x18 .long 0x4d40c942 // ld1r {v2.4s}, [x10] .long 0x9100710a // add x10, x8, #0x1c .long 0x2d414d12 // ldp s18, s19, [x8, #8] .long 0x4d40c943 // ld1r {v3.4s}, [x10] .long 0x4e20ce30 // fmla v16.4s, v17.4s, v0.4s .long 0xbd400131 // ldr s17, [x9] .long 0x4f921002 // fmla v2.4s, v0.4s, v18.s[0] .long 0x4f931003 // fmla v3.4s, v0.4s, v19.s[0] .long 0x4f911001 // fmla v1.4s, v0.4s, v17.s[0] .long 0x4eb01e00 // mov v0.16b, v16.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_xy_to_unit_angle_aarch64 .globl _sk_xy_to_unit_angle_aarch64 FUNCTION(_sk_xy_to_unit_angle_aarch64) _sk_xy_to_unit_angle_aarch64: .long 0x52b77ce8 // mov w8, #0xbbe70000 .long 0x72856de8 // movk w8, #0x2b6f .long 0x4ea0f810 // fabs v16.4s, v0.4s .long 0x4ea0f831 // fabs v17.4s, v1.4s .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a79948 // mov w8, #0x3cca0000 .long 0x729af3e8 // movk w8, #0xd79f .long 0x4eb1f614 // fmin v20.4s, v16.4s, v17.4s .long 0x4e31f615 // fmax v21.4s, v16.4s, v17.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x52b7aa88 // mov w8, #0xbd540000 .long 0x6e35fe94 // fdiv v20.4s, v20.4s, v21.4s .long 0x728c9a88 // movk w8, #0x64d4 .long 0x6e34de95 // fmul v21.4s, v20.4s, v20.4s .long 0x4e35ce53 // fmla v19.4s, v18.4s, v21.4s .long 0x4e040d12 // dup v18.4s, w8 .long 0x52a7c448 // mov w8, #0x3e220000 .long 0x729e1528 // movk w8, #0xf0a9 .long 0x4e35ce72 // fmla v18.4s, v19.4s, v21.4s .long 0x4e040d13 // dup v19.4s, w8 .long 0x4e35ce53 // fmla v19.4s, v18.4s, v21.4s .long 0x4f02f612 // fmov v18.4s, #2.500000000000000000e-01 .long 0x6e33de93 // fmul v19.4s, v20.4s, v19.4s .long 0x6eb0e630 // fcmgt v16.4s, v17.4s, v16.4s .long 0x4eb3d652 // fsub v18.4s, v18.4s, v19.4s .long 0x4f0167f5 // movi v21.4s, #0x3f, lsl #24 .long 0x6e731e50 // bsl v16.16b, v18.16b, v19.16b .long 0x4ea0e800 // fcmlt v0.4s, v0.4s, #0.0 .long 0x4eb0d6b2 // fsub v18.4s, v21.4s, v16.4s .long 0x4f03f614 // fmov v20.4s, #1.000000000000000000e+00 .long 0x6e701e40 // bsl v0.16b, v18.16b, v16.16b .long 0x4ea0e831 // fcmlt v17.4s, v1.4s, #0.0 .long 0x4ea0d690 // fsub v16.4s, v20.4s, v0.4s .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e601e11 // bsl v17.16b, v16.16b, v0.16b .long 0x6ea0ca20 // fcmge v0.4s, v17.4s, #0.0 .long 0x4ea0ea30 // fcmlt v16.4s, v17.4s, #0.0 .long 0x4ea01e00 // orr v0.16b, v16.16b, v0.16b .long 0x4e201e20 // and v0.16b, v17.16b, v0.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_xy_to_radius_aarch64 .globl _sk_xy_to_radius_aarch64 FUNCTION(_sk_xy_to_radius_aarch64) _sk_xy_to_radius_aarch64: .long 0xf8408425 // ldr x5, [x1], #8 .long 0x6e21dc30 // fmul v16.4s, v1.4s, v1.4s .long 0x4e20cc10 // fmla v16.4s, v0.4s, v0.4s .long 0x6ea1fa00 // fsqrt v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_xy_to_2pt_conical_quadratic_max_aarch64 .globl _sk_xy_to_2pt_conical_quadratic_max_aarch64 FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_aarch64) _sk_xy_to_2pt_conical_quadratic_max_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4f04f614 // fmov v20.4s, #-4.000000000000000000e+00 .long 0x2d444d10 // ldp s16, s19, [x8, #32] .long 0x2d454911 // ldp s17, s18, [x8, #40] .long 0x4f909290 // fmul v16.4s, v20.4s, v16.s[0] .long 0x4f0167f4 // movi v20.4s, #0x3f, lsl #24 .long 0x4f939293 // fmul v19.4s, v20.4s, v19.s[0] .long 0x6e21dc34 // fmul v20.4s, v1.4s, v1.4s .long 0x1e310a52 // fmul s18, s18, s17 .long 0x1e310a31 // fmul s17, s17, s17 .long 0x4e20cc14 // fmla v20.4s, v0.4s, v0.4s .long 0x4e040652 // dup v18.4s, v18.s[0] .long 0x4e040631 // dup v17.4s, v17.s[0] .long 0x4e20d640 // fadd v0.4s, v18.4s, v0.4s .long 0x4eb1d691 // fsub v17.4s, v20.4s, v17.4s .long 0x4f066412 // movi v18.4s, #0xc0, lsl #24 .long 0x6e32dc00 // fmul v0.4s, v0.4s, v18.4s .long 0x6e31de10 // fmul v16.4s, v16.4s, v17.4s .long 0x4e20cc10 // fmla v16.4s, v0.4s, v0.4s .long 0x6ea0f811 // fneg v17.4s, v0.4s .long 0x6ea1fa10 // fsqrt v16.4s, v16.4s .long 0x4ea0d600 // fsub v0.4s, v16.4s, v0.4s .long 0x4eb0d630 // fsub v16.4s, v17.4s, v16.4s .long 0x6e20de60 // fmul v0.4s, v19.4s, v0.4s .long 0x6e30de70 // fmul v16.4s, v19.4s, v16.4s .long 0x4e30f400 // fmax v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_xy_to_2pt_conical_quadratic_min_aarch64 .globl _sk_xy_to_2pt_conical_quadratic_min_aarch64 FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_aarch64) _sk_xy_to_2pt_conical_quadratic_min_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x4f04f614 // fmov v20.4s, #-4.000000000000000000e+00 .long 0x2d444d10 // ldp s16, s19, [x8, #32] .long 0x2d454911 // ldp s17, s18, [x8, #40] .long 0x4f909290 // fmul v16.4s, v20.4s, v16.s[0] .long 0x4f0167f4 // movi v20.4s, #0x3f, lsl #24 .long 0x4f939293 // fmul v19.4s, v20.4s, v19.s[0] .long 0x6e21dc34 // fmul v20.4s, v1.4s, v1.4s .long 0x1e310a52 // fmul s18, s18, s17 .long 0x1e310a31 // fmul s17, s17, s17 .long 0x4e20cc14 // fmla v20.4s, v0.4s, v0.4s .long 0x4e040652 // dup v18.4s, v18.s[0] .long 0x4e040631 // dup v17.4s, v17.s[0] .long 0x4e20d640 // fadd v0.4s, v18.4s, v0.4s .long 0x4eb1d691 // fsub v17.4s, v20.4s, v17.4s .long 0x4f066412 // movi v18.4s, #0xc0, lsl #24 .long 0x6e32dc00 // fmul v0.4s, v0.4s, v18.4s .long 0x6e31de10 // fmul v16.4s, v16.4s, v17.4s .long 0x4e20cc10 // fmla v16.4s, v0.4s, v0.4s .long 0x6ea0f811 // fneg v17.4s, v0.4s .long 0x6ea1fa10 // fsqrt v16.4s, v16.4s .long 0x4ea0d600 // fsub v0.4s, v16.4s, v0.4s .long 0x4eb0d630 // fsub v16.4s, v17.4s, v16.4s .long 0x6e20de60 // fmul v0.4s, v19.4s, v0.4s .long 0x6e30de70 // fmul v16.4s, v19.4s, v16.4s .long 0x4eb0f400 // fmin v0.4s, v0.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_xy_to_2pt_conical_linear_aarch64 .globl _sk_xy_to_2pt_conical_linear_aarch64 FUNCTION(_sk_xy_to_2pt_conical_linear_aarch64) _sk_xy_to_2pt_conical_linear_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x6e21dc32 // fmul v18.4s, v1.4s, v1.4s .long 0x4e20cc12 // fmla v18.4s, v0.4s, v0.4s .long 0x2d454510 // ldp s16, s17, [x8, #40] .long 0x1e300a31 // fmul s17, s17, s16 .long 0x1e300a10 // fmul s16, s16, s16 .long 0x4e040631 // dup v17.4s, v17.s[0] .long 0x4e040610 // dup v16.4s, v16.s[0] .long 0x4e20d620 // fadd v0.4s, v17.4s, v0.4s .long 0x4f066411 // movi v17.4s, #0xc0, lsl #24 .long 0x4eb0d650 // fsub v16.4s, v18.4s, v16.4s .long 0x6e31dc00 // fmul v0.4s, v0.4s, v17.4s .long 0x6ea0fa10 // fneg v16.4s, v16.4s .long 0x6e20fe00 // fdiv v0.4s, v16.4s, v0.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_mask_2pt_conical_degenerates_aarch64 .globl _sk_mask_2pt_conical_degenerates_aarch64 FUNCTION(_sk_mask_2pt_conical_degenerates_aarch64) _sk_mask_2pt_conical_degenerates_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x6ea0c812 // fcmge v18.4s, v0.4s, #0.0 .long 0x4ea0e813 // fcmlt v19.4s, v0.4s, #0.0 .long 0x4eb21e72 // orr v18.16b, v19.16b, v18.16b .long 0x9100a109 // add x9, x8, #0x28 .long 0xbd402d10 // ldr s16, [x8, #44] .long 0x4d40c931 // ld1r {v17.4s}, [x9] .long 0x4f901011 // fmla v17.4s, v0.4s, v16.s[0] .long 0x6ea0ca30 // fcmge v16.4s, v17.4s, #0.0 .long 0x0e612a10 // xtn v16.4h, v16.4s .long 0x0e612a51 // xtn v17.4h, v18.4s .long 0x0e311e10 // and v16.8b, v16.8b, v17.8b .long 0x2f10a610 // uxtl v16.4s, v16.4h .long 0x4f3f5610 // shl v16.4s, v16.4s, #31 .long 0x4f210610 // sshr v16.4s, v16.4s, #31 .long 0x3d800110 // str q16, [x8] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_apply_vector_mask_aarch64 .globl _sk_apply_vector_mask_aarch64 FUNCTION(_sk_apply_vector_mask_aarch64) _sk_apply_vector_mask_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x3dc00110 // ldr q16, [x8] .long 0x4e201e00 // and v0.16b, v16.16b, v0.16b .long 0x4e211e01 // and v1.16b, v16.16b, v1.16b .long 0x4e221e02 // and v2.16b, v16.16b, v2.16b .long 0x4e231e03 // and v3.16b, v16.16b, v3.16b .long 0xd61f00a0 // br x5 HIDDEN _sk_save_xy_aarch64 .globl _sk_save_xy_aarch64 FUNCTION(_sk_save_xy_aarch64) _sk_save_xy_aarch64: .long 0x4f0167f0 // movi v16.4s, #0x3f, lsl #24 .long 0xf9400028 // ldr x8, [x1] .long 0x4e30d411 // fadd v17.4s, v0.4s, v16.4s .long 0x4e30d430 // fadd v16.4s, v1.4s, v16.4s .long 0x4e219a32 // frintm v18.4s, v17.4s .long 0x4eb2d631 // fsub v17.4s, v17.4s, v18.4s .long 0x4e219a12 // frintm v18.4s, v16.4s .long 0x4eb2d610 // fsub v16.4s, v16.4s, v18.4s .long 0x3d800100 // str q0, [x8] .long 0x3d800901 // str q1, [x8, #32] .long 0x3d801111 // str q17, [x8, #64] .long 0x3d801910 // str q16, [x8, #96] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_accumulate_aarch64 .globl _sk_accumulate_aarch64 FUNCTION(_sk_accumulate_aarch64) _sk_accumulate_aarch64: .long 0xa8c11428 // ldp x8, x5, [x1], #16 .long 0x3dc02110 // ldr q16, [x8, #128] .long 0x3dc02911 // ldr q17, [x8, #160] .long 0x6e31de10 // fmul v16.4s, v16.4s, v17.4s .long 0x4e30cc04 // fmla v4.4s, v0.4s, v16.4s .long 0x4e30cc25 // fmla v5.4s, v1.4s, v16.4s .long 0x4e30cc46 // fmla v6.4s, v2.4s, v16.4s .long 0x4e30cc67 // fmla v7.4s, v3.4s, v16.4s .long 0xd61f00a0 // br x5 HIDDEN _sk_bilinear_nx_aarch64 .globl _sk_bilinear_nx_aarch64 FUNCTION(_sk_bilinear_nx_aarch64) _sk_bilinear_nx_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00 .long 0x3dc01100 // ldr q0, [x8, #64] .long 0x3dc00110 // ldr q16, [x8] .long 0x4ea0d620 // fsub v0.4s, v17.4s, v0.4s .long 0x3d802100 // str q0, [x8, #128] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f0567e0 // movi v0.4s, #0xbf, lsl #24 .long 0x4e20d600 // fadd v0.4s, v16.4s, v0.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bilinear_px_aarch64 .globl _sk_bilinear_px_aarch64 FUNCTION(_sk_bilinear_px_aarch64) _sk_bilinear_px_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x3dc01100 // ldr q0, [x8, #64] .long 0x3dc00110 // ldr q16, [x8] .long 0x3d802100 // str q0, [x8, #128] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f0167e0 // movi v0.4s, #0x3f, lsl #24 .long 0x4e20d600 // fadd v0.4s, v16.4s, v0.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bilinear_ny_aarch64 .globl _sk_bilinear_ny_aarch64 FUNCTION(_sk_bilinear_ny_aarch64) _sk_bilinear_ny_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x4f03f611 // fmov v17.4s, #1.000000000000000000e+00 .long 0x3dc01901 // ldr q1, [x8, #96] .long 0x3dc00910 // ldr q16, [x8, #32] .long 0x4ea1d621 // fsub v1.4s, v17.4s, v1.4s .long 0x3d802901 // str q1, [x8, #160] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f0567e1 // movi v1.4s, #0xbf, lsl #24 .long 0x4e21d601 // fadd v1.4s, v16.4s, v1.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bilinear_py_aarch64 .globl _sk_bilinear_py_aarch64 FUNCTION(_sk_bilinear_py_aarch64) _sk_bilinear_py_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x3dc01901 // ldr q1, [x8, #96] .long 0x3dc00910 // ldr q16, [x8, #32] .long 0x3d802901 // str q1, [x8, #160] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f0167e1 // movi v1.4s, #0x3f, lsl #24 .long 0x4e21d601 // fadd v1.4s, v16.4s, v1.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_n3x_aarch64 .globl _sk_bicubic_n3x_aarch64 FUNCTION(_sk_bicubic_n3x_aarch64) _sk_bicubic_n3x_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a7d8e9 // mov w9, #0x3ec70000 .long 0x72838e49 // movk w9, #0x1c72 .long 0x4e040d30 // dup v16.4s, w9 .long 0x3dc01111 // ldr q17, [x8, #64] .long 0x52b7d549 // mov w9, #0xbeaa0000 .long 0x4f03f600 // fmov v0.4s, #1.000000000000000000e+00 .long 0x72955569 // movk w9, #0xaaab .long 0x4e040d32 // dup v18.4s, w9 .long 0x4eb1d400 // fsub v0.4s, v0.4s, v17.4s .long 0x6e20dc11 // fmul v17.4s, v0.4s, v0.4s .long 0x4e20ce12 // fmla v18.4s, v16.4s, v0.4s .long 0x6e32de20 // fmul v0.4s, v17.4s, v18.4s .long 0x3dc00113 // ldr q19, [x8] .long 0x3d802100 // str q0, [x8, #128] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f07f700 // fmov v0.4s, #-1.500000000000000000e+00 .long 0x4e20d660 // fadd v0.4s, v19.4s, v0.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_n1x_aarch64 .globl _sk_bicubic_n1x_aarch64 FUNCTION(_sk_bicubic_n1x_aarch64) _sk_bicubic_n1x_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52b7f2a9 // mov w9, #0xbf950000 .long 0x4f03f600 // fmov v0.4s, #1.000000000000000000e+00 .long 0x728aaaa9 // movk w9, #0x5555 .long 0x3dc01110 // ldr q16, [x8, #64] .long 0x4f03f711 // fmov v17.4s, #1.500000000000000000e+00 .long 0x4f0167f2 // movi v18.4s, #0x3f, lsl #24 .long 0x4eb0d400 // fsub v0.4s, v0.4s, v16.4s .long 0x4e040d30 // dup v16.4s, w9 .long 0x52a7ac69 // mov w9, #0x3d630000 .long 0x7291c729 // movk w9, #0x8e39 .long 0x4e20ce11 // fmla v17.4s, v16.4s, v0.4s .long 0x4e20ce32 // fmla v18.4s, v17.4s, v0.4s .long 0x4e040d31 // dup v17.4s, w9 .long 0x4e20ce51 // fmla v17.4s, v18.4s, v0.4s .long 0x3dc00110 // ldr q16, [x8] .long 0x3d802111 // str q17, [x8, #128] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f0567e0 // movi v0.4s, #0xbf, lsl #24 .long 0x4e20d600 // fadd v0.4s, v16.4s, v0.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_p1x_aarch64 .globl _sk_bicubic_p1x_aarch64 FUNCTION(_sk_bicubic_p1x_aarch64) _sk_bicubic_p1x_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52b7f2a9 // mov w9, #0xbf950000 .long 0x728aaaa9 // movk w9, #0x5555 .long 0x4f03f711 // fmov v17.4s, #1.500000000000000000e+00 .long 0x3dc01112 // ldr q18, [x8, #64] .long 0x3dc00100 // ldr q0, [x8] .long 0x4e040d33 // dup v19.4s, w9 .long 0x52a7ac69 // mov w9, #0x3d630000 .long 0x4f0167f0 // movi v16.4s, #0x3f, lsl #24 .long 0x7291c729 // movk w9, #0x8e39 .long 0x4e32ce71 // fmla v17.4s, v19.4s, v18.4s .long 0x4e30d400 // fadd v0.4s, v0.4s, v16.4s .long 0x4e32ce30 // fmla v16.4s, v17.4s, v18.4s .long 0x4e040d31 // dup v17.4s, w9 .long 0x4e32ce11 // fmla v17.4s, v16.4s, v18.4s .long 0x3d802111 // str q17, [x8, #128] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_p3x_aarch64 .globl _sk_bicubic_p3x_aarch64 FUNCTION(_sk_bicubic_p3x_aarch64) _sk_bicubic_p3x_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a7d8e9 // mov w9, #0x3ec70000 .long 0x72838e49 // movk w9, #0x1c72 .long 0x4e040d20 // dup v0.4s, w9 .long 0x3dc01110 // ldr q16, [x8, #64] .long 0x52b7d549 // mov w9, #0xbeaa0000 .long 0x72955569 // movk w9, #0xaaab .long 0x4e040d31 // dup v17.4s, w9 .long 0x6e30de13 // fmul v19.4s, v16.4s, v16.4s .long 0x4e30cc11 // fmla v17.4s, v0.4s, v16.4s .long 0x6e31de60 // fmul v0.4s, v19.4s, v17.4s .long 0x3dc00112 // ldr q18, [x8] .long 0x3d802100 // str q0, [x8, #128] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f03f700 // fmov v0.4s, #1.500000000000000000e+00 .long 0x4e20d640 // fadd v0.4s, v18.4s, v0.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_n3y_aarch64 .globl _sk_bicubic_n3y_aarch64 FUNCTION(_sk_bicubic_n3y_aarch64) _sk_bicubic_n3y_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a7d8e9 // mov w9, #0x3ec70000 .long 0x72838e49 // movk w9, #0x1c72 .long 0x4e040d30 // dup v16.4s, w9 .long 0x3dc01911 // ldr q17, [x8, #96] .long 0x52b7d549 // mov w9, #0xbeaa0000 .long 0x4f03f601 // fmov v1.4s, #1.000000000000000000e+00 .long 0x72955569 // movk w9, #0xaaab .long 0x4e040d32 // dup v18.4s, w9 .long 0x4eb1d421 // fsub v1.4s, v1.4s, v17.4s .long 0x6e21dc31 // fmul v17.4s, v1.4s, v1.4s .long 0x4e21ce12 // fmla v18.4s, v16.4s, v1.4s .long 0x6e32de21 // fmul v1.4s, v17.4s, v18.4s .long 0x3dc00913 // ldr q19, [x8, #32] .long 0x3d802901 // str q1, [x8, #160] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f07f701 // fmov v1.4s, #-1.500000000000000000e+00 .long 0x4e21d661 // fadd v1.4s, v19.4s, v1.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_n1y_aarch64 .globl _sk_bicubic_n1y_aarch64 FUNCTION(_sk_bicubic_n1y_aarch64) _sk_bicubic_n1y_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52b7f2a9 // mov w9, #0xbf950000 .long 0x4f03f601 // fmov v1.4s, #1.000000000000000000e+00 .long 0x728aaaa9 // movk w9, #0x5555 .long 0x3dc01910 // ldr q16, [x8, #96] .long 0x4f03f711 // fmov v17.4s, #1.500000000000000000e+00 .long 0x4f0167f2 // movi v18.4s, #0x3f, lsl #24 .long 0x4eb0d421 // fsub v1.4s, v1.4s, v16.4s .long 0x4e040d30 // dup v16.4s, w9 .long 0x52a7ac69 // mov w9, #0x3d630000 .long 0x7291c729 // movk w9, #0x8e39 .long 0x4e21ce11 // fmla v17.4s, v16.4s, v1.4s .long 0x4e21ce32 // fmla v18.4s, v17.4s, v1.4s .long 0x4e040d31 // dup v17.4s, w9 .long 0x4e21ce51 // fmla v17.4s, v18.4s, v1.4s .long 0x3dc00910 // ldr q16, [x8, #32] .long 0x3d802911 // str q17, [x8, #160] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f0567e1 // movi v1.4s, #0xbf, lsl #24 .long 0x4e21d601 // fadd v1.4s, v16.4s, v1.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_p1y_aarch64 .globl _sk_bicubic_p1y_aarch64 FUNCTION(_sk_bicubic_p1y_aarch64) _sk_bicubic_p1y_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52b7f2a9 // mov w9, #0xbf950000 .long 0x728aaaa9 // movk w9, #0x5555 .long 0x4f03f711 // fmov v17.4s, #1.500000000000000000e+00 .long 0x3dc01912 // ldr q18, [x8, #96] .long 0x3dc00901 // ldr q1, [x8, #32] .long 0x4e040d33 // dup v19.4s, w9 .long 0x52a7ac69 // mov w9, #0x3d630000 .long 0x4f0167f0 // movi v16.4s, #0x3f, lsl #24 .long 0x7291c729 // movk w9, #0x8e39 .long 0x4e32ce71 // fmla v17.4s, v19.4s, v18.4s .long 0x4e30d421 // fadd v1.4s, v1.4s, v16.4s .long 0x4e32ce30 // fmla v16.4s, v17.4s, v18.4s .long 0x4e040d31 // dup v17.4s, w9 .long 0x4e32ce11 // fmla v17.4s, v16.4s, v18.4s .long 0x3d802911 // str q17, [x8, #160] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_bicubic_p3y_aarch64 .globl _sk_bicubic_p3y_aarch64 FUNCTION(_sk_bicubic_p3y_aarch64) _sk_bicubic_p3y_aarch64: .long 0xf9400028 // ldr x8, [x1] .long 0x52a7d8e9 // mov w9, #0x3ec70000 .long 0x72838e49 // movk w9, #0x1c72 .long 0x4e040d21 // dup v1.4s, w9 .long 0x3dc01910 // ldr q16, [x8, #96] .long 0x52b7d549 // mov w9, #0xbeaa0000 .long 0x72955569 // movk w9, #0xaaab .long 0x4e040d31 // dup v17.4s, w9 .long 0x6e30de13 // fmul v19.4s, v16.4s, v16.4s .long 0x4e30cc31 // fmla v17.4s, v1.4s, v16.4s .long 0x6e31de61 // fmul v1.4s, v19.4s, v17.4s .long 0x3dc00912 // ldr q18, [x8, #32] .long 0x3d802901 // str q1, [x8, #160] .long 0xf9400425 // ldr x5, [x1, #8] .long 0x4f03f701 // fmov v1.4s, #1.500000000000000000e+00 .long 0x4e21d641 // fadd v1.4s, v18.4s, v1.4s .long 0x91004021 // add x1, x1, #0x10 .long 0xd61f00a0 // br x5 HIDDEN _sk_callback_aarch64 .globl _sk_callback_aarch64 FUNCTION(_sk_callback_aarch64) _sk_callback_aarch64: .long 0xd10203ff // sub sp, sp, #0x80 .long 0xa9045ff8 // stp x24, x23, [sp, #64] .long 0xa90557f6 // stp x22, x21, [sp, #80] .long 0xa9064ff4 // stp x20, x19, [sp, #96] .long 0xa9077bfd // stp x29, x30, [sp, #112] .long 0xad011fe6 // stp q6, q7, [sp, #32] .long 0xad0017e4 // stp q4, q5, [sp] .long 0xaa0103f6 // mov x22, x1 .long 0xf94002d8 // ldr x24, [x22] .long 0xaa0403f3 // mov x19, x4 .long 0xf100027f // cmp x19, #0x0 .long 0x321e03e9 // orr w9, wzr, #0x4 .long 0x91002308 // add x8, x24, #0x8 .long 0x4c000900 // st4 {v0.4s-v3.4s}, [x8] .long 0xf9400308 // ldr x8, [x24] .long 0xaa0003f7 // mov x23, x0 .long 0x1a891261 // csel w1, w19, w9, ne // ne = any .long 0xaa1803e0 // mov x0, x24 .long 0x9101c3fd // add x29, sp, #0x70 .long 0xaa0303f4 // mov x20, x3 .long 0xaa0203f5 // mov x21, x2 .long 0xd63f0100 // blr x8 .long 0xf9404708 // ldr x8, [x24, #136] .long 0xf94006c5 // ldr x5, [x22, #8] .long 0x910042c1 // add x1, x22, #0x10 .long 0xaa1703e0 // mov x0, x23 .long 0x4c400900 // ld4 {v0.4s-v3.4s}, [x8] .long 0xaa1503e2 // mov x2, x21 .long 0xaa1403e3 // mov x3, x20 .long 0xaa1303e4 // mov x4, x19 .long 0xad4017e4 // ldp q4, q5, [sp] .long 0xad411fe6 // ldp q6, q7, [sp, #32] .long 0xa9477bfd // ldp x29, x30, [sp, #112] .long 0xa9464ff4 // ldp x20, x19, [sp, #96] .long 0xa94557f6 // ldp x22, x21, [sp, #80] .long 0xa9445ff8 // ldp x24, x23, [sp, #64] .long 0x910203ff // add sp, sp, #0x80 .long 0xd61f00a0 // br x5 HIDDEN _sk_clut_3D_aarch64 .globl _sk_clut_3D_aarch64 FUNCTION(_sk_clut_3D_aarch64) _sk_clut_3D_aarch64: .long 0xd104c3ff // sub sp, sp, #0x130 .long 0xa90213e3 // stp x3, x4, [sp, #32] .long 0xaa0103e3 // mov x3, x1 .long 0x91002069 // add x9, x3, #0x8 .long 0x6d093bef // stp d15, d14, [sp, #144] .long 0x6d0a33ed // stp d13, d12, [sp, #160] .long 0x6d0b2beb // stp d11, d10, [sp, #176] .long 0x6d0c23e9 // stp d9, d8, [sp, #192] .long 0xa90d6ffc // stp x28, x27, [sp, #208] .long 0xa90e67fa // stp x26, x25, [sp, #224] .long 0xa90f5ff8 // stp x24, x23, [sp, #240] .long 0xa91057f6 // stp x22, x21, [sp, #256] .long 0xa9114ff4 // stp x20, x19, [sp, #272] .long 0xa9127bfd // stp x29, x30, [sp, #288] .long 0xad031fe6 // stp q6, q7, [sp, #96] .long 0xad0217e4 // stp q4, q5, [sp, #64] .long 0x3d800fe3 // str q3, [sp, #48] .long 0xf9000fe2 // str x2, [sp, #24] .long 0xaa0303e4 // mov x4, x3 .long 0xf90047e9 // str x9, [sp, #136] .long 0xf8410489 // ldr x9, [x4], #16 .long 0x52a7efed // mov w13, #0x3f7f0000 .long 0x729f2e4d // movk w13, #0xf972 .long 0x4e040dbd // dup v29.4s, w13 .long 0x2941ad2c // ldp w12, w11, [x9, #12] .long 0xb940092a // ldr w10, [x9, #8] .long 0x4f000432 // movi v18.4s, #0x1 .long 0xf9400129 // ldr x9, [x9] .long 0x5100056d // sub w13, w11, #0x1 .long 0x4e040d7f // dup v31.4s, w11 .long 0x1e27017e // fmov s30, w11 .long 0x5100058b // sub w11, w12, #0x1 .long 0x1e270188 // fmov s8, w12 .long 0x5100054a // sub w10, w10, #0x1 .long 0x4ebe9d1e // mul v30.4s, v8.4s, v30.4s .long 0x4e040da8 // dup v8.4s, w13 .long 0x4e040d69 // dup v9.4s, w11 .long 0x4e040d4a // dup v10.4s, w10 .long 0x4e21d908 // scvtf v8.4s, v8.4s .long 0x4e21d929 // scvtf v9.4s, v9.4s .long 0x4e21d94b // scvtf v11.4s, v10.4s .long 0x6e22dd08 // fmul v8.4s, v8.4s, v2.4s .long 0x6e21dd2a // fmul v10.4s, v9.4s, v1.4s .long 0x6e20dd6b // fmul v11.4s, v11.4s, v0.4s .long 0x4ea1b90c // fcvtzs v12.4s, v8.4s .long 0x4ea1b949 // fcvtzs v9.4s, v10.4s .long 0x4e3dd56d // fadd v13.4s, v11.4s, v29.4s .long 0x4e3dd542 // fadd v2.4s, v10.4s, v29.4s .long 0x4eac1d86 // mov v6.16b, v12.16b .long 0x4e21d98e // scvtf v14.4s, v12.4s .long 0x4ea1b9ad // fcvtzs v13.4s, v13.4s .long 0x4ebf952c // mla v12.4s, v9.4s, v31.4s .long 0x4f000470 // movi v16.4s, #0x3 .long 0x4f000454 // movi v20.4s, #0x2 .long 0x4eb21e55 // mov v21.16b, v18.16b .long 0x4e3dd500 // fadd v0.4s, v8.4s, v29.4s .long 0x4ea1b85d // fcvtzs v29.4s, v2.4s .long 0x4eac1d81 // mov v1.16b, v12.16b .long 0x6f9e01ac // mla v12.4s, v13.4s, v30.s[0] .long 0x4eb41e96 // mov v22.16b, v20.16b .long 0x4ebf97a6 // mla v6.4s, v29.4s, v31.4s .long 0x4eb09595 // mla v21.4s, v12.4s, v16.4s .long 0x4eb21e5b // mov v27.16b, v18.16b .long 0x4ea1b805 // fcvtzs v5.4s, v0.4s .long 0x4ea61cc2 // mov v2.16b, v6.16b .long 0x6f9e01a6 // mla v6.4s, v13.4s, v30.s[0] .long 0x4eb09596 // mla v22.4s, v12.4s, v16.4s .long 0x1e2602ac // fmov w12, s21 .long 0x4ea1b967 // fcvtzs v7.4s, v11.4s .long 0x4ea51ca0 // mov v0.16b, v5.16b .long 0x4ebf97a5 // mla v5.4s, v29.4s, v31.4s .long 0x4eb094db // mla v27.4s, v6.4s, v16.4s .long 0x8b2c4933 // add x19, x9, w12, uxtw #2 .long 0x1e2602cc // fmov w12, s22 .long 0x4e21d8ef // scvtf v15.4s, v7.4s .long 0x4ebf9520 // mla v0.4s, v9.4s, v31.4s .long 0x4ea51ca3 // mov v3.16b, v5.16b .long 0x6f9e01a5 // mla v5.4s, v13.4s, v30.s[0] .long 0x4eb09d9f // mul v31.4s, v12.4s, v16.4s .long 0x8b2c4937 // add x23, x9, w12, uxtw #2 .long 0x1e26037b // fmov w27, s27 .long 0x4eb21e53 // mov v19.16b, v18.16b .long 0x4eb21e57 // mov v23.16b, v18.16b .long 0x4eb21e59 // mov v25.16b, v18.16b .long 0x4eafd56b // fsub v11.4s, v11.4s, v15.4s .long 0x4e21d92f // scvtf v15.4s, v9.4s .long 0x4eaed51d // fsub v29.4s, v8.4s, v14.4s .long 0x4ea01c04 // mov v4.16b, v0.16b .long 0x4eb21e49 // mov v9.16b, v18.16b .long 0x0e1c3ff1 // mov w17, v31.s[3] .long 0x0e1c3ea7 // mov w7, v21.s[3] .long 0x4eb21e48 // mov v8.16b, v18.16b .long 0x4eb094b2 // mla v18.4s, v5.4s, v16.4s .long 0x0e0c3ed4 // mov w20, v22.s[1] .long 0x0e143ed5 // mov w21, v22.s[2] .long 0x0e1c3ed6 // mov w22, v22.s[3] .long 0x0e0c3f78 // mov w24, v27.s[1] .long 0x0e143f79 // mov w25, v27.s[2] .long 0x0e1c3f7a // mov w26, v27.s[3] .long 0x0d40827b // ld1 {v27.s}[0], [x19] .long 0x0d4082f6 // ld1 {v22.s}[0], [x23] .long 0x8b3b4937 // add x23, x9, w27, uxtw #2 .long 0x0e0c3ea6 // mov w6, v21.s[1] .long 0x0e143ea5 // mov w5, v21.s[2] .long 0x6f9e00e1 // mla v1.4s, v7.4s, v30.s[0] .long 0x6f9e00e2 // mla v2.4s, v7.4s, v30.s[0] .long 0x6f9e00e3 // mla v3.4s, v7.4s, v30.s[0] .long 0xbc715935 // ldr s21, [x9, w17, uxtw #2] .long 0x6f9e00e4 // mla v4.4s, v7.4s, v30.s[0] .long 0xbc675927 // ldr s7, [x9, w7, uxtw #2] .long 0x0e0c3e47 // mov w7, v18.s[1] .long 0x0e143e53 // mov w19, v18.s[2] .long 0xbc75592c // ldr s12, [x9, w21, uxtw #2] .long 0x0e1c3e51 // mov w17, v18.s[3] .long 0x1e260255 // fmov w21, s18 .long 0x0d4082f2 // ld1 {v18.s}[0], [x23] .long 0x4eb41e9c // mov v28.16b, v20.16b .long 0x4eb094dc // mla v28.4s, v6.4s, v16.4s .long 0x8b264926 // add x6, x9, w6, uxtw #2 .long 0x4eb41e91 // mov v17.16b, v20.16b .long 0x4eb41e98 // mov v24.16b, v20.16b .long 0x4eb41e9a // mov v26.16b, v20.16b .long 0x4eafd54a // fsub v10.4s, v10.4s, v15.4s .long 0x6f9e01a0 // mla v0.4s, v13.4s, v30.s[0] .long 0x0e0c3feb // mov w11, v31.s[1] .long 0x0e143fe1 // mov w1, v31.s[2] .long 0x1e2603ef // fmov w15, s31 .long 0x4eb41e9f // mov v31.16b, v20.16b .long 0x1e26038a // fmov w10, s28 .long 0x4eb41e8f // mov v15.16b, v20.16b .long 0x4eb094b4 // mla v20.4s, v5.4s, v16.4s .long 0x0d4090db // ld1 {v27.s}[1], [x6] .long 0x8b344926 // add x6, x9, w20, uxtw #2 .long 0x8b384934 // add x20, x9, w24, uxtw #2 .long 0x4eb09cc6 // mul v6.4s, v6.4s, v16.4s .long 0x4eb09433 // mla v19.4s, v1.4s, v16.4s .long 0x4eb09431 // mla v17.4s, v1.4s, v16.4s .long 0x4eb09c2d // mul v13.4s, v1.4s, v16.4s .long 0x4eb09457 // mla v23.4s, v2.4s, v16.4s .long 0x4eb09458 // mla v24.4s, v2.4s, v16.4s .long 0x4eb09c41 // mul v1.4s, v2.4s, v16.4s .long 0x4eb09409 // mla v9.4s, v0.4s, v16.4s .long 0x4eb0941f // mla v31.4s, v0.4s, v16.4s .long 0x4eb09c1e // mul v30.4s, v0.4s, v16.4s .long 0x4eb09499 // mla v25.4s, v4.4s, v16.4s .long 0x4eb0949a // mla v26.4s, v4.4s, v16.4s .long 0x4eb09c80 // mul v0.4s, v4.4s, v16.4s .long 0xbc795922 // ldr s2, [x9, w25, uxtw #2] .long 0x1e260282 // fmov w2, s20 .long 0x8b2a492a // add x10, x9, w10, uxtw #2 .long 0x0d409292 // ld1 {v18.s}[1], [x20] .long 0xbc735924 // ldr s4, [x9, w19, uxtw #2] .long 0x8b354933 // add x19, x9, w21, uxtw #2 .long 0x0e0c3ccd // mov w13, v6.s[1] .long 0x0e143ccc // mov w12, v6.s[2] .long 0x0e1c3cd0 // mov w16, v6.s[3] .long 0x1e2600ce // fmov w14, s6 .long 0x0e143f9e // mov w30, v28.s[2] .long 0xbc655926 // ldr s6, [x9, w5, uxtw #2] .long 0x0e0c3e99 // mov w25, v20.s[1] .long 0x0e143e9b // mov w27, v20.s[2] .long 0x0e1c3e85 // mov w5, v20.s[3] .long 0x0d4090d6 // ld1 {v22.s}[1], [x6] .long 0x0e0c3e66 // mov w6, v19.s[1] .long 0x0d408154 // ld1 {v20.s}[0], [x10] .long 0x0e143e6a // mov w10, v19.s[2] .long 0x0e1c3e74 // mov w20, v19.s[3] .long 0x1e260277 // fmov w23, s19 .long 0x0d408273 // ld1 {v19.s}[0], [x19] .long 0x8b224922 // add x2, x9, w2, uxtw #2 .long 0x0e0c3f9c // mov w28, v28.s[1] .long 0x0e1c3f88 // mov w8, v28.s[3] .long 0x4eb09468 // mla v8.4s, v3.4s, v16.4s .long 0x4eb0946f // mla v15.4s, v3.4s, v16.4s .long 0x4eb09c7c // mul v28.4s, v3.4s, v16.4s .long 0xbc7e5923 // ldr s3, [x9, w30, uxtw #2] .long 0x0e0c3e33 // mov w19, v17.s[1] .long 0x0e143e35 // mov w21, v17.s[2] .long 0x0e1c3e38 // mov w24, v17.s[3] .long 0x1e26023e // fmov w30, s17 .long 0x0d408051 // ld1 {v17.s}[0], [x2] .long 0x6e140452 // mov v18.s[2], v2.s[0] .long 0xbc7b5922 // ldr s2, [x9, w27, uxtw #2] .long 0x8b3c493b // add x27, x9, w28, uxtw #2 .long 0x8b274927 // add x7, x9, w7, uxtw #2 .long 0x0d409374 // ld1 {v20.s}[1], [x27] .long 0x0d4090f3 // ld1 {v19.s}[1], [x7] .long 0x8b374927 // add x7, x9, w23, uxtw #2 .long 0x8b394937 // add x23, x9, w25, uxtw #2 .long 0x0d4092f1 // ld1 {v17.s}[1], [x23] .long 0x6e140474 // mov v20.s[2], v3.s[0] .long 0x0e0c3c22 // mov w2, v1.s[1] .long 0xbc6a5923 // ldr s3, [x9, w10, uxtw #2] .long 0x0e143c2a // mov w10, v1.s[2] .long 0x0e1c3c37 // mov w23, v1.s[3] .long 0x1e260039 // fmov w25, s1 .long 0x0d4080e1 // ld1 {v1.s}[0], [x7] .long 0x8b3e4927 // add x7, x9, w30, uxtw #2 .long 0x6e140451 // mov v17.s[2], v2.s[0] .long 0x0d4080e2 // ld1 {v2.s}[0], [x7] .long 0x8b334933 // add x19, x9, w19, uxtw #2 .long 0x1e2602fc // fmov w28, s23 .long 0x4eb09cae // mul v14.4s, v5.4s, v16.4s .long 0x0d409262 // ld1 {v2.s}[1], [x19] .long 0x8b394933 // add x19, x9, w25, uxtw #2 .long 0x8b264926 // add x6, x9, w6, uxtw #2 .long 0x0d408270 // ld1 {v16.s}[0], [x19] .long 0x8b3c4933 // add x19, x9, w28, uxtw #2 .long 0x0e0c3ee7 // mov w7, v23.s[1] .long 0x0d4090c1 // ld1 {v1.s}[1], [x6] .long 0x0e143ee6 // mov w6, v23.s[2] .long 0x0e1c3efb // mov w27, v23.s[3] .long 0x0d408277 // ld1 {v23.s}[0], [x19] .long 0x8b224922 // add x2, x9, w2, uxtw #2 .long 0x1e260319 // fmov w25, s24 .long 0x0d409050 // ld1 {v16.s}[1], [x2] .long 0x8b274922 // add x2, x9, w7, uxtw #2 .long 0x6e140461 // mov v1.s[2], v3.s[0] .long 0xbc765923 // ldr s3, [x9, w22, uxtw #2] .long 0xbc6a5925 // ldr s5, [x9, w10, uxtw #2] .long 0x0d409057 // ld1 {v23.s}[1], [x2] .long 0x8b394922 // add x2, x9, w25, uxtw #2 .long 0x6e140493 // mov v19.s[2], v4.s[0] .long 0xbc755924 // ldr s4, [x9, w21, uxtw #2] .long 0x0e0c3f15 // mov w21, v24.s[1] .long 0x0e143f16 // mov w22, v24.s[2] .long 0x0e1c3f0a // mov w10, v24.s[3] .long 0x0d408058 // ld1 {v24.s}[0], [x2] .long 0x6e140596 // mov v22.s[2], v12.s[0] .long 0x1e26013e // fmov w30, s9 .long 0x6e1c0476 // mov v22.s[3], v3.s[0] .long 0xbc665923 // ldr s3, [x9, w6, uxtw #2] .long 0x6e1404b0 // mov v16.s[2], v5.s[0] .long 0x8b354933 // add x19, x9, w21, uxtw #2 .long 0xbc685925 // ldr s5, [x9, w8, uxtw #2] .long 0x8b3e4928 // add x8, x9, w30, uxtw #2 .long 0x0e0c3fe2 // mov w2, v31.s[1] .long 0x0e143fe7 // mov w7, v31.s[2] .long 0x0d409278 // ld1 {v24.s}[1], [x19] .long 0x0e1c3ff3 // mov w19, v31.s[3] .long 0x1e2603f5 // fmov w21, s31 .long 0x0d40811f // ld1 {v31.s}[0], [x8] .long 0x0e0c3d26 // mov w6, v9.s[1] .long 0x6e140477 // mov v23.s[2], v3.s[0] .long 0xbc765923 // ldr s3, [x9, w22, uxtw #2] .long 0x8b264926 // add x6, x9, w6, uxtw #2 .long 0x6e140482 // mov v2.s[2], v4.s[0] .long 0xbc7a5924 // ldr s4, [x9, w26, uxtw #2] .long 0x0d4090df // ld1 {v31.s}[1], [x6] .long 0x8b354926 // add x6, x9, w21, uxtw #2 .long 0x0d4080cc // ld1 {v12.s}[0], [x6] .long 0x0e143d3a // mov w26, v9.s[2] .long 0x6e140478 // mov v24.s[2], v3.s[0] .long 0xbc7a5923 // ldr s3, [x9, w26, uxtw #2] .long 0x1e26011a // fmov w26, s8 .long 0x6e1c0492 // mov v18.s[3], v4.s[0] .long 0xbc675924 // ldr s4, [x9, w7, uxtw #2] .long 0x8b3a4927 // add x7, x9, w26, uxtw #2 .long 0x8b224922 // add x2, x9, w2, uxtw #2 .long 0x1e2601f5 // fmov w21, s15 .long 0x0e0c3d16 // mov w22, v8.s[1] .long 0x0e143d08 // mov w8, v8.s[2] .long 0x0e1c3d19 // mov w25, v8.s[3] .long 0x0d40904c // ld1 {v12.s}[1], [x2] .long 0x0d4080e8 // ld1 {v8.s}[0], [x7] .long 0x8b354927 // add x7, x9, w21, uxtw #2 .long 0x0e1c3d3c // mov w28, v9.s[3] .long 0x0d4080e9 // ld1 {v9.s}[0], [x7] .long 0x0e0c3de6 // mov w6, v15.s[1] .long 0x6e14047f // mov v31.s[2], v3.s[0] .long 0xbc685923 // ldr s3, [x9, w8, uxtw #2] .long 0x0e143de8 // mov w8, v15.s[2] .long 0x6e14048c // mov v12.s[2], v4.s[0] .long 0xbc685924 // ldr s4, [x9, w8, uxtw #2] .long 0x8b264928 // add x8, x9, w6, uxtw #2 .long 0x8b364935 // add x21, x9, w22, uxtw #2 .long 0x0d409109 // ld1 {v9.s}[1], [x8] .long 0x0d4092a8 // ld1 {v8.s}[1], [x21] .long 0x6e1c04b4 // mov v20.s[3], v5.s[0] .long 0xbc785925 // ldr s5, [x9, w24, uxtw #2] .long 0x6e140489 // mov v9.s[2], v4.s[0] .long 0xbc655924 // ldr s4, [x9, w5, uxtw #2] .long 0x6e140468 // mov v8.s[2], v3.s[0] .long 0xbc715923 // ldr s3, [x9, w17, uxtw #2] .long 0x8b2f492f // add x15, x9, w15, uxtw #2 .long 0x6e1c0491 // mov v17.s[3], v4.s[0] .long 0xbc775924 // ldr s4, [x9, w23, uxtw #2] .long 0x6e1c0473 // mov v19.s[3], v3.s[0] .long 0xbc745923 // ldr s3, [x9, w20, uxtw #2] .long 0x1e260337 // fmov w23, s25 .long 0x6e1c0490 // mov v16.s[3], v4.s[0] .long 0xbc6a5924 // ldr s4, [x9, w10, uxtw #2] .long 0x8b37492a // add x10, x9, w23, uxtw #2 .long 0x0e0c3da8 // mov w8, v13.s[1] .long 0x0e143db1 // mov w17, v13.s[2] .long 0x0e1c3da5 // mov w5, v13.s[3] .long 0x1e2601a6 // fmov w6, s13 .long 0x0d4081ed // ld1 {v13.s}[0], [x15] .long 0x6e1c0461 // mov v1.s[3], v3.s[0] .long 0xbc705923 // ldr s3, [x9, w16, uxtw #2] .long 0x0e0c3f2f // mov w15, v25.s[1] .long 0x0e143f30 // mov w16, v25.s[2] .long 0x0e1c3f34 // mov w20, v25.s[3] .long 0x0d408159 // ld1 {v25.s}[0], [x10] .long 0x6e1c04a2 // mov v2.s[3], v5.s[0] .long 0xbc7b5925 // ldr s5, [x9, w27, uxtw #2] .long 0x1e26035b // fmov w27, s26 .long 0x8b2f492f // add x15, x9, w15, uxtw #2 .long 0x0d4091f9 // ld1 {v25.s}[1], [x15] .long 0x8b3b492f // add x15, x9, w27, uxtw #2 .long 0x6e1c04b7 // mov v23.s[3], v5.s[0] .long 0xbc705925 // ldr s5, [x9, w16, uxtw #2] .long 0x6e1c0498 // mov v24.s[3], v4.s[0] .long 0x0d4081e4 // ld1 {v4.s}[0], [x15] .long 0x0e0c3f57 // mov w23, v26.s[1] .long 0x0e143f4a // mov w10, v26.s[2] .long 0x8b374930 // add x16, x9, w23, uxtw #2 .long 0x6e1404b9 // mov v25.s[2], v5.s[0] .long 0xbc6a5925 // ldr s5, [x9, w10, uxtw #2] .long 0x0d409204 // ld1 {v4.s}[1], [x16] .long 0x6e1404db // mov v27.s[2], v6.s[0] .long 0xbc7c5926 // ldr s6, [x9, w28, uxtw #2] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x6e1404a4 // mov v4.s[2], v5.s[0] .long 0xbc735925 // ldr s5, [x9, w19, uxtw #2] .long 0x6e1c04df // mov v31.s[3], v6.s[0] .long 0x0d4081c6 // ld1 {v6.s}[0], [x14] .long 0x8b2b492b // add x11, x9, w11, uxtw #2 .long 0x6e1c04ac // mov v12.s[3], v5.s[0] .long 0xbc795925 // ldr s5, [x9, w25, uxtw #2] .long 0x0e1c3de2 // mov w2, v15.s[3] .long 0x0d40916d // ld1 {v13.s}[1], [x11] .long 0x6e1c04fb // mov v27.s[3], v7.s[0] .long 0x0e1c3f58 // mov w24, v26.s[3] .long 0xbc625927 // ldr s7, [x9, w2, uxtw #2] .long 0x6e1c04a8 // mov v8.s[3], v5.s[0] .long 0xbc745925 // ldr s5, [x9, w20, uxtw #2] .long 0x0e0c3c02 // mov w2, v0.s[1] .long 0x0e143c0b // mov w11, v0.s[2] .long 0x0e1c3c14 // mov w20, v0.s[3] .long 0x1e26001c // fmov w28, s0 .long 0xbc785920 // ldr s0, [x9, w24, uxtw #2] .long 0x8b2d492d // add x13, x9, w13, uxtw #2 .long 0x1e2601da // fmov w26, s14 .long 0x8b214921 // add x1, x9, w1, uxtw #2 .long 0x0d4091a6 // ld1 {v6.s}[1], [x13] .long 0x4d40802d // ld1 {v13.s}[2], [x1] .long 0x8b3a4921 // add x1, x9, w26, uxtw #2 .long 0x6e1c04e9 // mov v9.s[3], v7.s[0] .long 0x0d408027 // ld1 {v7.s}[0], [x1] .long 0x6e1c0404 // mov v4.s[3], v0.s[0] .long 0x4ea1d760 // fsub v0.4s, v27.4s, v1.4s .long 0x8b2c492c // add x12, x9, w12, uxtw #2 .long 0x0e0c3dc7 // mov w7, v14.s[1] .long 0x4e20cd61 // fmla v1.4s, v11.4s, v0.4s .long 0x4d408186 // ld1 {v6.s}[2], [x12] .long 0x8b26492c // add x12, x9, w6, uxtw #2 .long 0x4ea2d6c0 // fsub v0.4s, v22.4s, v2.4s .long 0x4e20cd62 // fmla v2.4s, v11.4s, v0.4s .long 0x0d408180 // ld1 {v0.s}[0], [x12] .long 0x8b27492c // add x12, x9, w7, uxtw #2 .long 0x0d409187 // ld1 {v7.s}[1], [x12] .long 0x1e2603d7 // fmov w23, s30 .long 0x0e143dd5 // mov w21, v14.s[2] .long 0x8b37492c // add x12, x9, w23, uxtw #2 .long 0x4eb7d652 // fsub v18.4s, v18.4s, v23.4s .long 0x0e1c3dd6 // mov w22, v14.s[3] .long 0x4e32cd77 // fmla v23.4s, v11.4s, v18.4s .long 0x0d408192 // ld1 {v18.s}[0], [x12] .long 0x8b35492c // add x12, x9, w21, uxtw #2 .long 0x6e1c04b9 // mov v25.s[3], v5.s[0] .long 0xbc765925 // ldr s5, [x9, w22, uxtw #2] .long 0x4d408187 // ld1 {v7.s}[2], [x12] .long 0x1e26039b // fmov w27, s28 .long 0x8b3b492c // add x12, x9, w27, uxtw #2 .long 0x8b3c492d // add x13, x9, w28, uxtw #2 .long 0x4ea9d631 // fsub v17.4s, v17.4s, v9.4s .long 0x6e1c04a7 // mov v7.s[3], v5.s[0] .long 0x0d408185 // ld1 {v5.s}[0], [x12] .long 0x4e31cd69 // fmla v9.4s, v11.4s, v17.4s .long 0x0d4081b1 // ld1 {v17.s}[0], [x13] .long 0x0e0c3fcf // mov w15, v30.s[1] .long 0x0e0c3f8e // mov w14, v28.s[1] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x8b31492c // add x12, x9, w17, uxtw #2 .long 0x8b2f492f // add x15, x9, w15, uxtw #2 .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x8b224931 // add x17, x9, w2, uxtw #2 .long 0x0d409100 // ld1 {v0.s}[1], [x8] .long 0x0d4091f2 // ld1 {v18.s}[1], [x15] .long 0x0d4091c5 // ld1 {v5.s}[1], [x14] .long 0x0d409231 // ld1 {v17.s}[1], [x17] .long 0x0e143fca // mov w10, v30.s[2] .long 0x0e1c3fd0 // mov w16, v30.s[3] .long 0x0e143f93 // mov w19, v28.s[2] .long 0x0e1c3f99 // mov w25, v28.s[3] .long 0x4eb8d694 // fsub v20.4s, v20.4s, v24.4s .long 0x4ea8d673 // fsub v19.4s, v19.4s, v8.4s .long 0x6e1c06ad // mov v13.s[3], v21.s[0] .long 0xbc655935 // ldr s21, [x9, w5, uxtw #2] .long 0x6e1c0466 // mov v6.s[3], v3.s[0] .long 0xbc705923 // ldr s3, [x9, w16, uxtw #2] .long 0x4e34cd78 // fmla v24.4s, v11.4s, v20.4s .long 0xbc795934 // ldr s20, [x9, w25, uxtw #2] .long 0x4e33cd68 // fmla v8.4s, v11.4s, v19.4s .long 0xbc745933 // ldr s19, [x9, w20, uxtw #2] .long 0x8b2a492a // add x10, x9, w10, uxtw #2 .long 0x8b334930 // add x16, x9, w19, uxtw #2 .long 0x8b2b4929 // add x9, x9, w11, uxtw #2 .long 0x4d408180 // ld1 {v0.s}[2], [x12] .long 0x4d408152 // ld1 {v18.s}[2], [x10] .long 0x4d408205 // ld1 {v5.s}[2], [x16] .long 0x4d408131 // ld1 {v17.s}[2], [x9] .long 0x6e1c06a0 // mov v0.s[3], v21.s[0] .long 0x4eb9d7f6 // fsub v22.4s, v31.4s, v25.4s .long 0x4eb0d4c6 // fsub v6.4s, v6.4s, v16.4s .long 0x6e1c0472 // mov v18.s[3], v3.s[0] .long 0x6e1c0685 // mov v5.s[3], v20.s[0] .long 0x4ea0d5a3 // fsub v3.4s, v13.4s, v0.4s .long 0x6e1c0671 // mov v17.s[3], v19.s[0] .long 0x4ea4d59a // fsub v26.4s, v12.4s, v4.4s .long 0x4e36cd79 // fmla v25.4s, v11.4s, v22.4s .long 0x4e26cd70 // fmla v16.4s, v11.4s, v6.4s .long 0x4ea5d4e6 // fsub v6.4s, v7.4s, v5.4s .long 0x4e23cd60 // fmla v0.4s, v11.4s, v3.4s .long 0x4eb1d643 // fsub v3.4s, v18.4s, v17.4s .long 0x4ea1d6f5 // fsub v21.4s, v23.4s, v1.4s .long 0x4e3acd64 // fmla v4.4s, v11.4s, v26.4s .long 0x4eb9d507 // fsub v7.4s, v8.4s, v25.4s .long 0x4e26cd65 // fmla v5.4s, v11.4s, v6.4s .long 0x4e23cd71 // fmla v17.4s, v11.4s, v3.4s .long 0x4ea2d717 // fsub v23.4s, v24.4s, v2.4s .long 0x4e35cd41 // fmla v1.4s, v10.4s, v21.4s .long 0x4ea4d533 // fsub v19.4s, v9.4s, v4.4s .long 0x4e27cd59 // fmla v25.4s, v10.4s, v7.4s .long 0x4ea0d606 // fsub v6.4s, v16.4s, v0.4s .long 0x4eb1d4a5 // fsub v5.4s, v5.4s, v17.4s .long 0x4e37cd42 // fmla v2.4s, v10.4s, v23.4s .long 0x4e33cd44 // fmla v4.4s, v10.4s, v19.4s .long 0x4ea1d723 // fsub v3.4s, v25.4s, v1.4s .long 0x4e26cd40 // fmla v0.4s, v10.4s, v6.4s .long 0x4e25cd51 // fmla v17.4s, v10.4s, v5.4s .long 0x4ea2d484 // fsub v4.4s, v4.4s, v2.4s .long 0x4e23cfa1 // fmla v1.4s, v29.4s, v3.4s .long 0x4ea0d623 // fsub v3.4s, v17.4s, v0.4s .long 0xf9400465 // ldr x5, [x3, #8] .long 0x4e23cfa0 // fmla v0.4s, v29.4s, v3.4s .long 0x4e24cfa2 // fmla v2.4s, v29.4s, v4.4s .long 0xaa0403e1 // mov x1, x4 .long 0xa9418fe2 // ldp x2, x3, [sp, #24] .long 0xf94017e4 // ldr x4, [sp, #40] .long 0xad4193e3 // ldp q3, q4, [sp, #48] .long 0xad429be5 // ldp q5, q6, [sp, #80] .long 0x3dc01fe7 // ldr q7, [sp, #112] .long 0xa9527bfd // ldp x29, x30, [sp, #288] .long 0xa9514ff4 // ldp x20, x19, [sp, #272] .long 0xa95057f6 // ldp x22, x21, [sp, #256] .long 0xa94f5ff8 // ldp x24, x23, [sp, #240] .long 0xa94e67fa // ldp x26, x25, [sp, #224] .long 0xa94d6ffc // ldp x28, x27, [sp, #208] .long 0x6d4c23e9 // ldp d9, d8, [sp, #192] .long 0x6d4b2beb // ldp d11, d10, [sp, #176] .long 0x6d4a33ed // ldp d13, d12, [sp, #160] .long 0x6d493bef // ldp d15, d14, [sp, #144] .long 0x9104c3ff // add sp, sp, #0x130 .long 0xd61f00a0 // br x5 HIDDEN _sk_clut_4D_aarch64 .globl _sk_clut_4D_aarch64 FUNCTION(_sk_clut_4D_aarch64) _sk_clut_4D_aarch64: .long 0x6db63bef // stp d15, d14, [sp, #-160]! .long 0x6d0133ed // stp d13, d12, [sp, #16] .long 0x6d022beb // stp d11, d10, [sp, #32] .long 0x6d0323e9 // stp d9, d8, [sp, #48] .long 0xa9046ffc // stp x28, x27, [sp, #64] .long 0xa90567fa // stp x26, x25, [sp, #80] .long 0xa9065ff8 // stp x24, x23, [sp, #96] .long 0xa90757f6 // stp x22, x21, [sp, #112] .long 0xa9084ff4 // stp x20, x19, [sp, #128] .long 0xa9097bfd // stp x29, x30, [sp, #144] .long 0xd11143ff // sub sp, sp, #0x450 .long 0x91002029 // add x9, x1, #0x8 .long 0x3d810be7 // str q7, [sp, #1056] .long 0x3d8107e6 // str q6, [sp, #1040] .long 0xad1f97e4 // stp q4, q5, [sp, #1008] .long 0xf901f7e4 // str x4, [sp, #1000] .long 0xf901f3e3 // str x3, [sp, #992] .long 0xf901efe2 // str x2, [sp, #984] .long 0xf901ebe1 // str x1, [sp, #976] .long 0xf90227e9 // str x9, [sp, #1096] .long 0xf8410429 // ldr x9, [x1], #16 .long 0x52a7efe8 // mov w8, #0x3f7f0000 .long 0x729f2e48 // movk w8, #0xf972 .long 0x4ea01c04 // mov v4.16b, v0.16b .long 0xf901e7e1 // str x1, [sp, #968] .long 0x29422d2a // ldp w10, w11, [x9, #16] .long 0x4e040d00 // dup v0.4s, w8 .long 0x29413128 // ldp w8, w12, [x9, #8] .long 0x4f00047f // movi v31.4s, #0x3 .long 0x5100056d // sub w13, w11, #0x1 .long 0x4e040d72 // dup v18.4s, w11 .long 0x1e270165 // fmov s5, w11 .long 0x5100054b // sub w11, w10, #0x1 .long 0x1e270146 // fmov s6, w10 .long 0x4ea59cd1 // mul v17.4s, v6.4s, v5.4s .long 0x5100058a // sub w10, w12, #0x1 .long 0x1e270185 // fmov s5, w12 .long 0x51000508 // sub w8, w8, #0x1 .long 0x4e040da6 // dup v6.4s, w13 .long 0x4e040d67 // dup v7.4s, w11 .long 0x4e040d50 // dup v16.4s, w10 .long 0x4eb19cb8 // mul v24.4s, v5.4s, v17.4s .long 0x4e040d05 // dup v5.4s, w8 .long 0x4e21d8c6 // scvtf v6.4s, v6.4s .long 0x4e21d8e7 // scvtf v7.4s, v7.4s .long 0x4e21da10 // scvtf v16.4s, v16.4s .long 0x4e21d8a5 // scvtf v5.4s, v5.4s .long 0x6e23dcc3 // fmul v3.4s, v6.4s, v3.4s .long 0x6e22dce6 // fmul v6.4s, v7.4s, v2.4s .long 0xad1d0fe6 // stp q6, q3, [sp, #928] .long 0x6e21de10 // fmul v16.4s, v16.4s, v1.4s .long 0x6e24dca1 // fmul v1.4s, v5.4s, v4.4s .long 0x4ea1b864 // fcvtzs v4.4s, v3.4s .long 0x4e20d462 // fadd v2.4s, v3.4s, v0.4s .long 0x4e20d4c3 // fadd v3.4s, v6.4s, v0.4s .long 0x4e20d61d // fadd v29.4s, v16.4s, v0.4s .long 0x4e20d420 // fadd v0.4s, v1.4s, v0.4s .long 0x4ea1b859 // fcvtzs v25.4s, v2.4s .long 0x4ea1b865 // fcvtzs v5.4s, v3.4s .long 0x4ea1b8c7 // fcvtzs v7.4s, v6.4s .long 0xad1c43e4 // stp q4, q16, [sp, #896] .long 0x4ea41c82 // mov v2.16b, v4.16b .long 0x4ea41c83 // mov v3.16b, v4.16b .long 0x4ea1bba4 // fcvtzs v4.4s, v29.4s .long 0x4ea1b81d // fcvtzs v29.4s, v0.4s .long 0x4eb91f20 // mov v0.16b, v25.16b .long 0x4eb294b9 // mla v25.4s, v5.4s, v18.4s .long 0x4ea1ba06 // fcvtzs v6.4s, v16.4s .long 0x4eb294e3 // mla v3.4s, v7.4s, v18.4s .long 0x4eb294a2 // mla v2.4s, v5.4s, v18.4s .long 0x4eb294e0 // mla v0.4s, v7.4s, v18.4s .long 0x4eb91f25 // mov v5.16b, v25.16b .long 0x4ea31c76 // mov v22.16b, v3.16b .long 0x4ea21c54 // mov v20.16b, v2.16b .long 0x4ea01c09 // mov v9.16b, v0.16b .long 0x6f910080 // mla v0.4s, v4.4s, v17.s[0] .long 0x6f9100c5 // mla v5.4s, v6.4s, v17.s[0] .long 0x6f910083 // mla v3.4s, v4.4s, v17.s[0] .long 0x6f910082 // mla v2.4s, v4.4s, v17.s[0] .long 0x6f910099 // mla v25.4s, v4.4s, v17.s[0] .long 0x6f9100d6 // mla v22.4s, v6.4s, v17.s[0] .long 0x6f9100d4 // mla v20.4s, v6.4s, v17.s[0] .long 0x6f9100c9 // mla v9.4s, v6.4s, v17.s[0] .long 0x4ea01c0a // mov v10.16b, v0.16b .long 0x6f9803a0 // mla v0.4s, v29.4s, v24.s[0] .long 0x4ea51cac // mov v12.16b, v5.16b .long 0x6f9803a5 // mla v5.4s, v29.4s, v24.s[0] .long 0xad1b1fe6 // stp q6, q7, [sp, #864] .long 0x4ea31c72 // mov v18.16b, v3.16b .long 0x4ea21c47 // mov v7.16b, v2.16b .long 0x4eb91f24 // mov v4.16b, v25.16b .long 0x4eb61ece // mov v14.16b, v22.16b .long 0x4eb41e8d // mov v13.16b, v20.16b .long 0x3d8093e0 // str q0, [sp, #576] .long 0x3d808be5 // str q5, [sp, #544] .long 0x4ea91d25 // mov v5.16b, v9.16b .long 0x4ea1b820 // fcvtzs v0.4s, v1.4s .long 0x6f9803a3 // mla v3.4s, v29.4s, v24.s[0] .long 0x6f980012 // mla v18.4s, v0.4s, v24.s[0] .long 0x6f980007 // mla v7.4s, v0.4s, v24.s[0] .long 0x6f980004 // mla v4.4s, v0.4s, v24.s[0] .long 0x6f98000e // mla v14.4s, v0.4s, v24.s[0] .long 0x6f98000d // mla v13.4s, v0.4s, v24.s[0] .long 0x6f98000a // mla v10.4s, v0.4s, v24.s[0] .long 0x6f98000c // mla v12.4s, v0.4s, v24.s[0] .long 0x6f980005 // mla v5.4s, v0.4s, v24.s[0] .long 0x4e21d800 // scvtf v0.4s, v0.4s .long 0x4ea0d43a // fsub v26.4s, v1.4s, v0.4s .long 0x4ebf9c61 // mul v1.4s, v3.4s, v31.4s .long 0x0e0c3c28 // mov w8, v1.s[1] .long 0x4f000433 // movi v19.4s, #0x1 .long 0xb90333e8 // str w8, [sp, #816] .long 0x0e143c28 // mov w8, v1.s[2] .long 0x3d8033e5 // str q5, [sp, #192] .long 0x4eb31e65 // mov v5.16b, v19.16b .long 0xb90343e8 // str w8, [sp, #832] .long 0x0e1c3c28 // mov w8, v1.s[3] .long 0x4ebf9465 // mla v5.4s, v3.4s, v31.4s .long 0xb90353e8 // str w8, [sp, #848] .long 0x1e260028 // fmov w8, s1 .long 0x4f000455 // movi v21.4s, #0x2 .long 0xb9031be8 // str w8, [sp, #792] .long 0x0e0c3ca8 // mov w8, v5.s[1] .long 0x4eb51ea0 // mov v0.16b, v21.16b .long 0xb901dfe8 // str w8, [sp, #476] .long 0x0e143ca8 // mov w8, v5.s[2] .long 0x4ebf9460 // mla v0.4s, v3.4s, v31.4s .long 0xb901f7e8 // str w8, [sp, #500] .long 0x0e1c3ca8 // mov w8, v5.s[3] .long 0xb901dbe8 // str w8, [sp, #472] .long 0x0e143c08 // mov w8, v0.s[2] .long 0x6f9803a2 // mla v2.4s, v29.4s, v24.s[0] .long 0x0e0c3c1e // mov w30, v0.s[1] .long 0xb901f3e8 // str w8, [sp, #496] .long 0x0e1c3c08 // mov w8, v0.s[3] .long 0x1e260011 // fmov w17, s0 .long 0x4eb51ea0 // mov v0.16b, v21.16b .long 0x4ebf9440 // mla v0.4s, v2.4s, v31.4s .long 0x0e0c3c0a // mov w10, v0.s[1] .long 0x4eb31e61 // mov v1.16b, v19.16b .long 0xb901e3ea // str w10, [sp, #480] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x6f9803b9 // mla v25.4s, v29.4s, v24.s[0] .long 0x4ebf9441 // mla v1.4s, v2.4s, v31.4s .long 0x4ebf9c42 // mul v2.4s, v2.4s, v31.4s .long 0xb901e7ea // str w10, [sp, #484] .long 0x0e1c3c0a // mov w10, v0.s[3] .long 0xb90197e8 // str w8, [sp, #404] .long 0x0e0c3c48 // mov w8, v2.s[1] .long 0xb9019bea // str w10, [sp, #408] .long 0x1e26000a // fmov w10, s0 .long 0x4ebf9f20 // mul v0.4s, v25.4s, v31.4s .long 0xb90317e8 // str w8, [sp, #788] .long 0x0e143c48 // mov w8, v2.s[2] .long 0xb901ebea // str w10, [sp, #488] .long 0x0e0c3c0a // mov w10, v0.s[1] .long 0x6f9803b6 // mla v22.4s, v29.4s, v24.s[0] .long 0xb9031fe8 // str w8, [sp, #796] .long 0x0e1c3c48 // mov w8, v2.s[3] .long 0xb902afea // str w10, [sp, #684] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x3d80bff6 // str q22, [sp, #752] .long 0xb90323e8 // str w8, [sp, #800] .long 0x1e260048 // fmov w8, s2 .long 0xb902efea // str w10, [sp, #748] .long 0x0e1c3c0a // mov w10, v0.s[3] .long 0xb90313e8 // str w8, [sp, #784] .long 0x0e143c28 // mov w8, v1.s[2] .long 0xb9030fea // str w10, [sp, #780] .long 0x1e26000a // fmov w10, s0 .long 0x3dc0bfe0 // ldr q0, [sp, #752] .long 0x6f9803b4 // mla v20.4s, v29.4s, v24.s[0] .long 0xb901efe8 // str w8, [sp, #492] .long 0x0e1c3c28 // mov w8, v1.s[3] .long 0x3d80a7f4 // str q20, [sp, #656] .long 0x6f9803a9 // mla v9.4s, v29.4s, v24.s[0] .long 0x3d80afe7 // str q7, [sp, #688] .long 0x4eb31e7b // mov v27.16b, v19.16b .long 0x1e2600a4 // fmov w4, s5 .long 0x4eb31e65 // mov v5.16b, v19.16b .long 0x0e0c3c35 // mov w21, v1.s[1] .long 0xb90433e8 // str w8, [sp, #1072] .long 0x1e260028 // fmov w8, s1 .long 0x4eb31e67 // mov v7.16b, v19.16b .long 0x4eb31e7c // mov v28.16b, v19.16b .long 0x4eb31e71 // mov v17.16b, v19.16b .long 0x4eb31e74 // mov v20.16b, v19.16b .long 0xad0dcff3 // stp q19, q19, [sp, #432] .long 0x4eb31e68 // mov v8.16b, v19.16b .long 0x3d806bf3 // str q19, [sp, #416] .long 0x4eb31e76 // mov v22.16b, v19.16b .long 0x4eb31e6f // mov v15.16b, v19.16b .long 0x4eb31e7d // mov v29.16b, v19.16b .long 0x4ebf9733 // mla v19.4s, v25.4s, v31.4s .long 0x4eb51ea1 // mov v1.16b, v21.16b .long 0x3d80b7f2 // str q18, [sp, #720] .long 0x3d809be4 // str q4, [sp, #608] .long 0x4ea11c22 // mov v2.16b, v1.16b .long 0x4ea11c23 // mov v3.16b, v1.16b .long 0x4ea11c38 // mov v24.16b, v1.16b .long 0x4ea11c24 // mov v4.16b, v1.16b .long 0x4ea11c26 // mov v6.16b, v1.16b .long 0xad0687e1 // stp q1, q1, [sp, #208] .long 0x4ea11c3e // mov v30.16b, v1.16b .long 0x4ea11c2b // mov v11.16b, v1.16b .long 0x4ea11c30 // mov v16.16b, v1.16b .long 0x4ea11c32 // mov v18.16b, v1.16b .long 0x4ea11c37 // mov v23.16b, v1.16b .long 0x4ebf9721 // mla v1.4s, v25.4s, v31.4s .long 0xb9027fea // str w10, [sp, #636] .long 0x0e1c3e6a // mov w10, v19.s[3] .long 0xb90173ea // str w10, [sp, #368] .long 0x0e1c3c2a // mov w10, v1.s[3] .long 0x4ebf9405 // mla v5.4s, v0.4s, v31.4s .long 0x4ebf9402 // mla v2.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0xb90153ea // str w10, [sp, #336] .long 0x0e0c3c0a // mov w10, v0.s[1] .long 0xb9028bea // str w10, [sp, #648] .long 0x0e143c0a // mov w10, v0.s[2] .long 0xb902abea // str w10, [sp, #680] .long 0x0e1c3c0a // mov w10, v0.s[3] .long 0xb902cfea // str w10, [sp, #716] .long 0x1e26000a // fmov w10, s0 .long 0x3dc0b7e0 // ldr q0, [sp, #720] .long 0x0e1c3cab // mov w11, v5.s[3] .long 0xb90163eb // str w11, [sp, #352] .long 0x0e0c3c4b // mov w11, v2.s[1] .long 0xb900b3eb // str w11, [sp, #176] .long 0x0e143c4b // mov w11, v2.s[2] .long 0xb9019feb // str w11, [sp, #412] .long 0x0e1c3c4b // mov w11, v2.s[3] .long 0x4ebf9407 // mla v7.4s, v0.4s, v31.4s .long 0x4ebf9403 // mla v3.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0xb90183eb // str w11, [sp, #384] .long 0x0e0c3c0b // mov w11, v0.s[1] .long 0xb902cbeb // str w11, [sp, #712] .long 0x0e143c0b // mov w11, v0.s[2] .long 0xb902d3eb // str w11, [sp, #720] .long 0x0e1c3c0b // mov w11, v0.s[3] .long 0xb902f3eb // str w11, [sp, #752] .long 0x1e26000b // fmov w11, s0 .long 0x3dc0a7e0 // ldr q0, [sp, #656] .long 0x0e1c3c70 // mov w16, v3.s[3] .long 0xb9010bf0 // str w16, [sp, #264] .long 0xb9028feb // str w11, [sp, #652] .long 0x4ebf9411 // mla v17.4s, v0.4s, v31.4s .long 0x4ebf9404 // mla v4.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0x0e0c3c10 // mov w16, v0.s[1] .long 0xb9025ff0 // str w16, [sp, #604] .long 0x0e143c10 // mov w16, v0.s[2] .long 0xb9027bf0 // str w16, [sp, #632] .long 0x0e1c3c10 // mov w16, v0.s[3] .long 0xb90287f0 // str w16, [sp, #644] .long 0x1e260010 // fmov w16, s0 .long 0xb9021bf0 // str w16, [sp, #536] .long 0x0e0c3e30 // mov w16, v17.s[1] .long 0xb90093f0 // str w16, [sp, #144] .long 0x0e143e30 // mov w16, v17.s[2] .long 0x3dc0afe0 // ldr q0, [sp, #688] .long 0xb9010ff0 // str w16, [sp, #268] .long 0x0e1c3e30 // mov w16, v17.s[3] .long 0xb90133f0 // str w16, [sp, #304] .long 0x0e0c3c90 // mov w16, v4.s[1] .long 0xb9006ff0 // str w16, [sp, #108] .long 0x0e143c90 // mov w16, v4.s[2] .long 0xb90107f0 // str w16, [sp, #260] .long 0x0e1c3c90 // mov w16, v4.s[3] .long 0x4ebf9414 // mla v20.4s, v0.4s, v31.4s .long 0x4ebf9406 // mla v6.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0xb90117f0 // str w16, [sp, #276] .long 0x0e0c3c10 // mov w16, v0.s[1] .long 0xb90283f0 // str w16, [sp, #640] .long 0x0e143c10 // mov w16, v0.s[2] .long 0xb90293f0 // str w16, [sp, #656] .long 0x0e1c3c10 // mov w16, v0.s[3] .long 0xb902b3f0 // str w16, [sp, #688] .long 0x1e260010 // fmov w16, s0 .long 0xb9023bf0 // str w16, [sp, #568] .long 0x0e143e90 // mov w16, v20.s[2] .long 0xb9006bf0 // str w16, [sp, #104] .long 0x0e1c3e90 // mov w16, v20.s[3] .long 0x3dc093e0 // ldr q0, [sp, #576] .long 0xb9012bf0 // str w16, [sp, #296] .long 0x0e0c3cd0 // mov w16, v6.s[1] .long 0xb9011bf0 // str w16, [sp, #280] .long 0x0e143cd0 // mov w16, v6.s[2] .long 0xb90123f0 // str w16, [sp, #288] .long 0x0e1c3cd0 // mov w16, v6.s[3] .long 0xb90113f0 // str w16, [sp, #272] .long 0x1e2600d0 // fmov w16, s6 .long 0x4ebf9416 // mla v22.4s, v0.4s, v31.4s .long 0x4ebf9410 // mla v16.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0xb90057f0 // str w16, [sp, #84] .long 0x0e0c3c10 // mov w16, v0.s[1] .long 0xb90217f0 // str w16, [sp, #532] .long 0x0e143c10 // mov w16, v0.s[2] .long 0xb9021ff0 // str w16, [sp, #540] .long 0x0e1c3c10 // mov w16, v0.s[3] .long 0xb90243f0 // str w16, [sp, #576] .long 0x1e260010 // fmov w16, s0 .long 0xb90203f0 // str w16, [sp, #512] .long 0x0e0c3ed0 // mov w16, v22.s[1] .long 0xb90067f0 // str w16, [sp, #100] .long 0x0e143ed0 // mov w16, v22.s[2] .long 0xb90103f0 // str w16, [sp, #256] .long 0x0e1c3ed0 // mov w16, v22.s[3] .long 0x3dc08be0 // ldr q0, [sp, #544] .long 0xb9014bf0 // str w16, [sp, #328] .long 0x0e0c3e10 // mov w16, v16.s[1] .long 0xb900aff0 // str w16, [sp, #172] .long 0x0e143e10 // mov w16, v16.s[2] .long 0xb900b7f0 // str w16, [sp, #180] .long 0x0e1c3e10 // mov w16, v16.s[3] .long 0xb90127f0 // str w16, [sp, #292] .long 0x1e260210 // fmov w16, s16 .long 0x4ebf940f // mla v15.4s, v0.4s, v31.4s .long 0x4ebf9412 // mla v18.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0xb900f7f0 // str w16, [sp, #244] .long 0x0e0c3c10 // mov w16, v0.s[1] .long 0xb9020bf0 // str w16, [sp, #520] .long 0x0e143c10 // mov w16, v0.s[2] .long 0xb9020ff0 // str w16, [sp, #524] .long 0x0e1c3c10 // mov w16, v0.s[3] .long 0xb90213f0 // str w16, [sp, #528] .long 0x1e260010 // fmov w16, s0 .long 0xb901fff0 // str w16, [sp, #508] .long 0x0e0c3df0 // mov w16, v15.s[1] .long 0xb90087f0 // str w16, [sp, #132] .long 0x0e143df0 // mov w16, v15.s[2] .long 0xb900abf0 // str w16, [sp, #168] .long 0x0e1c3df0 // mov w16, v15.s[3] .long 0xb9014ff0 // str w16, [sp, #332] .long 0x1e2601f0 // fmov w16, s15 .long 0x3dc09be0 // ldr q0, [sp, #608] .long 0xb9005ff0 // str w16, [sp, #92] .long 0x0e0c3e50 // mov w16, v18.s[1] .long 0xb9007ff0 // str w16, [sp, #124] .long 0x0e143e50 // mov w16, v18.s[2] .long 0xb9008ff0 // str w16, [sp, #140] .long 0x0e1c3e50 // mov w16, v18.s[3] .long 0x0e1c3ceb // mov w11, v7.s[3] .long 0xb9012ff0 // str w16, [sp, #300] .long 0x1e260250 // fmov w16, s18 .long 0x4ebf941d // mla v29.4s, v0.4s, v31.4s .long 0x4ebf9417 // mla v23.4s, v0.4s, v31.4s .long 0x4ebf9c00 // mul v0.4s, v0.4s, v31.4s .long 0xb9023fea // str w10, [sp, #572] .long 0xb9011feb // str w11, [sp, #284] .long 0xb90063f0 // str w16, [sp, #96] .long 0x0e0c3c10 // mov w16, v0.s[1] .long 0xf9400129 // ldr x9, [x9] .long 0xb90207f0 // str w16, [sp, #516] .long 0x0e143c10 // mov w16, v0.s[2] .long 0xb90223f0 // str w16, [sp, #544] .long 0x0e1c3c10 // mov w16, v0.s[3] .long 0xb90263f0 // str w16, [sp, #608] .long 0x1e260010 // fmov w16, s0 .long 0xb901fbf0 // str w16, [sp, #504] .long 0x0e0c3fb0 // mov w16, v29.s[1] .long 0xb90073f0 // str w16, [sp, #112] .long 0x0e143fb0 // mov w16, v29.s[2] .long 0xb9007bf0 // str w16, [sp, #120] .long 0x0e1c3fb0 // mov w16, v29.s[3] .long 0x8b244924 // add x4, x9, w4, uxtw #2 .long 0xb900fff0 // str w16, [sp, #252] .long 0x0d408080 // ld1 {v0.s}[0], [x4] .long 0x0e0c3ee4 // mov w4, v23.s[1] .long 0xb9008be4 // str w4, [sp, #136] .long 0x0e143ee4 // mov w4, v23.s[2] .long 0xb90083e4 // str w4, [sp, #128] .long 0x0e1c3ee4 // mov w4, v23.s[3] .long 0xb900fbe4 // str w4, [sp, #248] .long 0x1e2602e4 // fmov w4, s23 .long 0x8b314931 // add x17, x9, w17, uxtw #2 .long 0xb90077e4 // str w4, [sp, #116] .long 0x0e0c3c2c // mov w12, v1.s[1] .long 0x0e143c36 // mov w22, v1.s[2] .long 0x1e260034 // fmov w20, s1 .long 0x0d408221 // ld1 {v1.s}[0], [x17] .long 0xb941dff1 // ldr w17, [sp, #476] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0e0c3cf9 // mov w25, v7.s[1] .long 0x0e143ce5 // mov w5, v7.s[2] .long 0x8b314931 // add x17, x9, w17, uxtw #2 .long 0x0d409220 // ld1 {v0.s}[1], [x17] .long 0x1e2600eb // fmov w11, s7 .long 0x0e0c3e78 // mov w24, v19.s[1] .long 0x0e143e67 // mov w7, v19.s[2] .long 0x4ea01c17 // mov v23.16b, v0.16b .long 0x0d408100 // ld1 {v0.s}[0], [x8] .long 0x8b3e4928 // add x8, x9, w30, uxtw #2 .long 0x0d409101 // ld1 {v1.s}[1], [x8] .long 0x8b354928 // add x8, x9, w21, uxtw #2 .long 0x0d409100 // ld1 {v0.s}[1], [x8] .long 0xb941f7e8 // ldr w8, [sp, #500] .long 0x1e26026d // fmov w13, s19 .long 0x4ea11c33 // mov v19.16b, v1.16b .long 0x4ebf9dc1 // mul v1.4s, v14.4s, v31.4s .long 0xbc685926 // ldr s6, [x9, w8, uxtw #2] .long 0xb941f3e8 // ldr w8, [sp, #496] .long 0x0e0c3c31 // mov w17, v1.s[1] .long 0x4ebf95db // mla v27.4s, v14.4s, v31.4s .long 0x0e0c3e86 // mov w6, v20.s[1] .long 0xbc685927 // ldr s7, [x9, w8, uxtw #2] .long 0xb941efe8 // ldr w8, [sp, #492] .long 0x1e260297 // fmov w23, s20 .long 0x4ebf95d5 // mla v21.4s, v14.4s, v31.4s .long 0x3dc03bf4 // ldr q20, [sp, #224] .long 0xbc685930 // ldr s16, [x9, w8, uxtw #2] .long 0xb941ebe8 // ldr w8, [sp, #488] .long 0xb901eff1 // str w17, [sp, #492] .long 0x0e143c31 // mov w17, v1.s[2] .long 0xb901f3f1 // str w17, [sp, #496] .long 0x0e1c3c31 // mov w17, v1.s[3] .long 0xb901f7f1 // str w17, [sp, #500] .long 0x1e260031 // fmov w17, s1 .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0xb901ebf1 // str w17, [sp, #488] .long 0x0d40810f // ld1 {v15.s}[0], [x8] .long 0x8b2d4928 // add x8, x9, w13, uxtw #2 .long 0x0e0c3f6d // mov w13, v27.s[1] .long 0xb90043ed // str w13, [sp, #64] .long 0x0e143f6d // mov w13, v27.s[2] .long 0xb90047ed // str w13, [sp, #68] .long 0x0e1c3f6d // mov w13, v27.s[3] .long 0xb900e3ed // str w13, [sp, #224] .long 0x1e26036d // fmov w13, s27 .long 0x4ea01c12 // mov v18.16b, v0.16b .long 0xb9002fed // str w13, [sp, #44] .long 0x0e0c3ead // mov w13, v21.s[1] .long 0x6e140612 // mov v18.s[2], v16.s[0] .long 0x0d408110 // ld1 {v16.s}[0], [x8] .long 0xb9004bed // str w13, [sp, #72] .long 0x0e143ead // mov w13, v21.s[2] .long 0xb90053ed // str w13, [sp, #80] .long 0x0e1c3ead // mov w13, v21.s[3] .long 0x1e26004f // fmov w15, s2 .long 0x0e0c3c7a // mov w26, v3.s[1] .long 0x0e143c73 // mov w19, v3.s[2] .long 0x1e260061 // fmov w1, s3 .long 0x4ebf95bc // mla v28.4s, v13.4s, v31.4s .long 0x4ebf95b8 // mla v24.4s, v13.4s, v31.4s .long 0x4ebf9da2 // mul v2.4s, v13.4s, v31.4s .long 0xad4637e3 // ldp q3, q13, [sp, #192] .long 0xb900d3ed // str w13, [sp, #208] .long 0x1e2602ad // fmov w13, s21 .long 0x8b344928 // add x8, x9, w20, uxtw #2 .long 0xb90037ed // str w13, [sp, #52] .long 0x1e26009b // fmov w27, s4 .long 0x4ebf9528 // mla v8.4s, v9.4s, v31.4s .long 0x4ebf953e // mla v30.4s, v9.4s, v31.4s .long 0x4ebf9d24 // mul v4.4s, v9.4s, v31.4s .long 0x4eb21e49 // mov v9.16b, v18.16b .long 0x0d408112 // ld1 {v18.s}[0], [x8] .long 0x0e0c3c48 // mov w8, v2.s[1] .long 0xb9004fe8 // str w8, [sp, #76] .long 0x0e143c48 // mov w8, v2.s[2] .long 0xb9005be8 // str w8, [sp, #88] .long 0x0e1c3c48 // mov w8, v2.s[3] .long 0xb900c3e8 // str w8, [sp, #192] .long 0x1e260048 // fmov w8, s2 .long 0x1e2602dc // fmov w28, s22 .long 0x1e2603b0 // fmov w16, s29 .long 0xad4d77f6 // ldp q22, q29, [sp, #416] .long 0xb9003fe8 // str w8, [sp, #60] .long 0xb941e3e8 // ldr w8, [sp, #480] .long 0x1e2600a3 // fmov w3, s5 .long 0x6e1404d7 // mov v23.s[2], v6.s[0] .long 0x8b234931 // add x17, x9, w3, uxtw #2 .long 0x0e0c3cae // mov w14, v5.s[1] .long 0x0e143caa // mov w10, v5.s[2] .long 0x4ebf9556 // mla v22.4s, v10.4s, v31.4s .long 0x4ebf954b // mla v11.4s, v10.4s, v31.4s .long 0x4ebf9d45 // mul v5.4s, v10.4s, v31.4s .long 0x4eb71eea // mov v10.16b, v23.16b .long 0x0d408237 // ld1 {v23.s}[0], [x17] .long 0x8b284931 // add x17, x9, w8, uxtw #2 .long 0xb941e7e8 // ldr w8, [sp, #484] .long 0x8b2c492c // add x12, x9, w12, uxtw #2 .long 0x0d40922f // ld1 {v15.s}[1], [x17] .long 0x8b384931 // add x17, x9, w24, uxtw #2 .long 0x0d409192 // ld1 {v18.s}[1], [x12] .long 0x8b2e492c // add x12, x9, w14, uxtw #2 .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0x0e0c3f88 // mov w8, v28.s[1] .long 0x6e1404f3 // mov v19.s[2], v7.s[0] .long 0x0d409230 // ld1 {v16.s}[1], [x17] .long 0x0d409197 // ld1 {v23.s}[1], [x12] .long 0xbc675922 // ldr s2, [x9, w7, uxtw #2] .long 0xbc765926 // ldr s6, [x9, w22, uxtw #2] .long 0xbc6a5927 // ldr s7, [x9, w10, uxtw #2] .long 0xb90033e8 // str w8, [sp, #48] .long 0x0e143f88 // mov w8, v28.s[2] .long 0xb9003be8 // str w8, [sp, #56] .long 0x0e1c3f88 // mov w8, v28.s[3] .long 0xb900bbe8 // str w8, [sp, #184] .long 0x1e260388 // fmov w8, s28 .long 0x8b2f492a // add x10, x9, w15, uxtw #2 .long 0xb90023e8 // str w8, [sp, #32] .long 0x0e0c3f08 // mov w8, v24.s[1] .long 0x6e1404f7 // mov v23.s[2], v7.s[0] .long 0x0d408147 // ld1 {v7.s}[0], [x10] .long 0xb90027e8 // str w8, [sp, #36] .long 0x0e143f08 // mov w8, v24.s[2] .long 0xb9002be8 // str w8, [sp, #40] .long 0x0e1c3f08 // mov w8, v24.s[3] .long 0x6e140450 // mov v16.s[2], v2.s[0] .long 0x6e1404d2 // mov v18.s[2], v6.s[0] .long 0x8b2b492a // add x10, x9, w11, uxtw #2 .long 0xb900bfe8 // str w8, [sp, #188] .long 0x0e0c3c88 // mov w8, v4.s[1] .long 0x4eb01e19 // mov v25.16b, v16.16b .long 0x4eb21e50 // mov v16.16b, v18.16b .long 0x0d408152 // ld1 {v18.s}[0], [x10] .long 0xb901dfe8 // str w8, [sp, #476] .long 0x0e143c88 // mov w8, v4.s[2] .long 0xb901e3e8 // str w8, [sp, #480] .long 0x0e1c3c88 // mov w8, v4.s[3] .long 0xb901e7e8 // str w8, [sp, #484] .long 0x1e260088 // fmov w8, s4 .long 0x1e260222 // fmov w2, s17 .long 0x3dc073f1 // ldr q17, [sp, #448] .long 0xb901b3e8 // str w8, [sp, #432] .long 0xb940b3e8 // ldr w8, [sp, #176] .long 0x8b21492a // add x10, x9, w1, uxtw #2 .long 0x4ebf959d // mla v29.4s, v12.4s, v31.4s .long 0x4ebf958d // mla v13.4s, v12.4s, v31.4s .long 0x4ebf9d80 // mul v0.4s, v12.4s, v31.4s .long 0x4ebf9471 // mla v17.4s, v3.4s, v31.4s .long 0x4ebf9474 // mla v20.4s, v3.4s, v31.4s .long 0x4ebf9c63 // mul v3.4s, v3.4s, v31.4s .long 0x4eb31e7f // mov v31.16b, v19.16b .long 0x0d408153 // ld1 {v19.s}[0], [x10] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0xb9419fe8 // ldr w8, [sp, #412] .long 0x6e14042f // mov v15.s[2], v1.s[0] .long 0x0d409147 // ld1 {v7.s}[1], [x10] .long 0x8b39492a // add x10, x9, w25, uxtw #2 .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb941dbe8 // ldr w8, [sp, #472] .long 0x0d409152 // ld1 {v18.s}[1], [x10] .long 0x8b3a492a // add x10, x9, w26, uxtw #2 .long 0x0d409153 // ld1 {v19.s}[1], [x10] .long 0xbc685926 // ldr s6, [x9, w8, uxtw #2] .long 0x0e1c3d08 // mov w8, v8.s[3] .long 0xbc655922 // ldr s2, [x9, w5, uxtw #2] .long 0xbc735924 // ldr s4, [x9, w19, uxtw #2] .long 0x6e1c04ca // mov v10.s[3], v6.s[0] .long 0x3d8007ea // str q10, [sp, #16] .long 0x8b22492a // add x10, x9, w2, uxtw #2 .long 0xb900b3e8 // str w8, [sp, #176] .long 0x0e1c3fc8 // mov w8, v30.s[3] .long 0x0d408146 // ld1 {v6.s}[0], [x10] .long 0x8b3b492a // add x10, x9, w27, uxtw #2 .long 0xb900a7e8 // str w8, [sp, #164] .long 0x0e0c3ca8 // mov w8, v5.s[1] .long 0x0d40815b // ld1 {v27.s}[0], [x10] .long 0xb901a3e8 // str w8, [sp, #416] .long 0x0e143ca8 // mov w8, v5.s[2] .long 0xb901c3e8 // str w8, [sp, #448] .long 0x0e1c3ca8 // mov w8, v5.s[3] .long 0xb901dbe8 // str w8, [sp, #472] .long 0x1e2600a8 // fmov w8, s5 .long 0xb9019fe8 // str w8, [sp, #412] .long 0xb94093e8 // ldr w8, [sp, #144] .long 0x8b37492a // add x10, x9, w23, uxtw #2 .long 0x0d408155 // ld1 {v21.s}[0], [x10] .long 0x6e140427 // mov v7.s[2], v1.s[0] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0xb9406fe8 // ldr w8, [sp, #108] .long 0x0d409146 // ld1 {v6.s}[1], [x10] .long 0x6e140452 // mov v18.s[2], v2.s[0] .long 0x6e140493 // mov v19.s[2], v4.s[0] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0xb94197e8 // ldr w8, [sp, #404] .long 0x0d40915b // ld1 {v27.s}[1], [x10] .long 0x8b26492a // add x10, x9, w6, uxtw #2 .long 0x0d409155 // ld1 {v21.s}[1], [x10] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb9410fe8 // ldr w8, [sp, #268] .long 0x1e26030b // fmov w11, s24 .long 0x8b304930 // add x16, x9, w16, uxtw #2 .long 0x6e1c043f // mov v31.s[3], v1.s[0] .long 0xbc685922 // ldr s2, [x9, w8, uxtw #2] .long 0xb94107e8 // ldr w8, [sp, #260] .long 0x4eb61ec1 // mov v1.16b, v22.16b .long 0x0e0c3c25 // mov w5, v1.s[1] .long 0x6e140446 // mov v6.s[2], v2.s[0] .long 0xbc685924 // ldr s4, [x9, w8, uxtw #2] .long 0xb9406be8 // ldr w8, [sp, #104] .long 0x4ea61cd8 // mov v24.16b, v6.16b .long 0x0e143c37 // mov w23, v1.s[2] .long 0x1e26003e // fmov w30, s1 .long 0xbc685925 // ldr s5, [x9, w8, uxtw #2] .long 0xb94057e8 // ldr w8, [sp, #84] .long 0x6e14049b // mov v27.s[2], v4.s[0] .long 0x0e0c3fc2 // mov w2, v30.s[1] .long 0x6e1404b5 // mov v21.s[2], v5.s[0] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0x0e1c3c28 // mov w8, v1.s[3] .long 0xb9006be8 // str w8, [sp, #104] .long 0x0e1c3d68 // mov w8, v11.s[3] .long 0x0d408156 // ld1 {v22.s}[0], [x10] .long 0xb9006fe8 // str w8, [sp, #108] .long 0xb9411be8 // ldr w8, [sp, #280] .long 0x8b3c492a // add x10, x9, w28, uxtw #2 .long 0x0d408146 // ld1 {v6.s}[0], [x10] .long 0x0e143fdb // mov w27, v30.s[2] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0xb94067e8 // ldr w8, [sp, #100] .long 0x0d409156 // ld1 {v22.s}[1], [x10] .long 0x1e2603c1 // fmov w1, s30 .long 0x4ebf1ffe // mov v30.16b, v31.16b .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0xb94123e8 // ldr w8, [sp, #288] .long 0x0d409146 // ld1 {v6.s}[1], [x10] .long 0x0e0c3d63 // mov w3, v11.s[1] .long 0x0e143d7c // mov w28, v11.s[2] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb94433e8 // ldr w8, [sp, #1072] .long 0x1e260171 // fmov w17, s11 .long 0x8b2b492b // add x11, x9, w11, uxtw #2 .long 0x6e140436 // mov v22.s[2], v1.s[0] .long 0xbc685922 // ldr s2, [x9, w8, uxtw #2] .long 0xb9419be8 // ldr w8, [sp, #408] .long 0x1e260113 // fmov w19, s8 .long 0x0e0c3d1a // mov w26, v8.s[1] .long 0x6e1c0449 // mov v9.s[3], v2.s[0] .long 0xbc685924 // ldr s4, [x9, w8, uxtw #2] .long 0xb94103e8 // ldr w8, [sp, #256] .long 0x0e143d19 // mov w25, v8.s[2] .long 0x6e1c048f // mov v15.s[3], v4.s[0] .long 0xbc685925 // ldr s5, [x9, w8, uxtw #2] .long 0xb940f7e8 // ldr w8, [sp, #244] .long 0x3d8027e9 // str q9, [sp, #144] .long 0x6e1404a6 // mov v6.s[2], v5.s[0] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0x0e0c3c08 // mov w8, v0.s[1] .long 0xb90123e8 // str w8, [sp, #288] .long 0x0e143c08 // mov w8, v0.s[2] .long 0xb90197e8 // str w8, [sp, #404] .long 0x0e1c3c08 // mov w8, v0.s[3] .long 0xb9019be8 // str w8, [sp, #408] .long 0x1e260008 // fmov w8, s0 .long 0xb90103e8 // str w8, [sp, #256] .long 0xb9405fe8 // ldr w8, [sp, #92] .long 0x3d810fe6 // str q6, [sp, #1072] .long 0x4ebd1fa0 // mov v0.16b, v29.16b .long 0x0d408149 // ld1 {v9.s}[0], [x10] .long 0x8b28492a // add x10, x9, w8, uxtw #2 .long 0x0e1c3c08 // mov w8, v0.s[3] .long 0xb9005fe8 // str w8, [sp, #92] .long 0x0d40815d // ld1 {v29.s}[0], [x10] .long 0xb94063ea // ldr w10, [sp, #96] .long 0x0e0c3c15 // mov w21, v0.s[1] .long 0x0e143c04 // mov w4, v0.s[2] .long 0x1e260008 // fmov w8, s0 .long 0x4ead1da0 // mov v0.16b, v13.16b .long 0x0e1c3c0c // mov w12, v0.s[3] .long 0x8b2a4926 // add x6, x9, w10, uxtw #2 .long 0xb90067ec // str w12, [sp, #100] .long 0x0e0c3c6c // mov w12, v3.s[1] .long 0x0d4080cc // ld1 {v12.s}[0], [x6] .long 0xb90107ec // str w12, [sp, #260] .long 0x0e143c6c // mov w12, v3.s[2] .long 0xb9010fec // str w12, [sp, #268] .long 0x0e1c3c6c // mov w12, v3.s[3] .long 0xb9011bec // str w12, [sp, #280] .long 0x1e26006c // fmov w12, s3 .long 0xb900f7ec // str w12, [sp, #244] .long 0xb940afec // ldr w12, [sp, #172] .long 0x0d40821f // ld1 {v31.s}[0], [x16] .long 0x0e0c3c07 // mov w7, v0.s[1] .long 0x0e143c0a // mov w10, v0.s[2] .long 0x8b2c4930 // add x16, x9, w12, uxtw #2 .long 0xb94087ec // ldr w12, [sp, #132] .long 0x0d409209 // ld1 {v9.s}[1], [x16] .long 0x1e260014 // fmov w20, s0 .long 0x4eb11e20 // mov v0.16b, v17.16b .long 0x8b2c4930 // add x16, x9, w12, uxtw #2 .long 0xb9407fec // ldr w12, [sp, #124] .long 0x0d40921d // ld1 {v29.s}[1], [x16] .long 0x0e0c3c16 // mov w22, v0.s[1] .long 0x0e1c3c06 // mov w6, v0.s[3] .long 0x8b2c4930 // add x16, x9, w12, uxtw #2 .long 0xb94073ec // ldr w12, [sp, #112] .long 0x0d40920c // ld1 {v12.s}[1], [x16] .long 0x1e26000d // fmov w13, s0 .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x8b2c4930 // add x16, x9, w12, uxtw #2 .long 0xb940b7ec // ldr w12, [sp, #180] .long 0x0d40921f // ld1 {v31.s}[1], [x16] .long 0xbc6c5921 // ldr s1, [x9, w12, uxtw #2] .long 0xb940abec // ldr w12, [sp, #168] .long 0x6e140429 // mov v9.s[2], v1.s[0] .long 0xbc6c5922 // ldr s2, [x9, w12, uxtw #2] .long 0xb9408fec // ldr w12, [sp, #140] .long 0x6e14045d // mov v29.s[2], v2.s[0] .long 0xbc6c5923 // ldr s3, [x9, w12, uxtw #2] .long 0xb9407bec // ldr w12, [sp, #120] .long 0x6e14046c // mov v12.s[2], v3.s[0] .long 0xbc6c5924 // ldr s4, [x9, w12, uxtw #2] .long 0xb94077ec // ldr w12, [sp, #116] .long 0x6e14049f // mov v31.s[2], v4.s[0] .long 0x8b2c4930 // add x16, x9, w12, uxtw #2 .long 0x0e143c0c // mov w12, v0.s[2] .long 0x4eb41e80 // mov v0.16b, v20.16b .long 0x0e1c3c0e // mov w14, v0.s[3] .long 0x0d40820b // ld1 {v11.s}[0], [x16] .long 0xb900b7ee // str w14, [sp, #180] .long 0xb94083ee // ldr w14, [sp, #128] .long 0x0e0c3c18 // mov w24, v0.s[1] .long 0x0e143c10 // mov w16, v0.s[2] .long 0x1e26000f // fmov w15, s0 .long 0xbc6e5921 // ldr s1, [x9, w14, uxtw #2] .long 0xb9408bee // ldr w14, [sp, #136] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4091cb // ld1 {v11.s}[1], [x14] .long 0xb94173ee // ldr w14, [sp, #368] .long 0x6e14042b // mov v11.s[2], v1.s[0] .long 0xbc6e5922 // ldr s2, [x9, w14, uxtw #2] .long 0xb9402fee // ldr w14, [sp, #44] .long 0x6e1c0459 // mov v25.s[3], v2.s[0] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4081c5 // ld1 {v5.s}[0], [x14] .long 0xb94043ee // ldr w14, [sp, #64] .long 0x3d805ff9 // str q25, [sp, #368] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4091c5 // ld1 {v5.s}[1], [x14] .long 0xb94153ee // ldr w14, [sp, #336] .long 0xbc6e5921 // ldr s1, [x9, w14, uxtw #2] .long 0xb94047ee // ldr w14, [sp, #68] .long 0x6e1c0430 // mov v16.s[3], v1.s[0] .long 0xbc6e5922 // ldr s2, [x9, w14, uxtw #2] .long 0xb94037ee // ldr w14, [sp, #52] .long 0x6e140445 // mov v5.s[2], v2.s[0] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4081c4 // ld1 {v4.s}[0], [x14] .long 0xb9404bee // ldr w14, [sp, #72] .long 0x3d8057f0 // str q16, [sp, #336] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4091c4 // ld1 {v4.s}[1], [x14] .long 0xb94053ee // ldr w14, [sp, #80] .long 0xbc6e5921 // ldr s1, [x9, w14, uxtw #2] .long 0xb94163ee // ldr w14, [sp, #352] .long 0x6e140424 // mov v4.s[2], v1.s[0] .long 0xbc6e5922 // ldr s2, [x9, w14, uxtw #2] .long 0xb9403fee // ldr w14, [sp, #60] .long 0x6e1c0457 // mov v23.s[3], v2.s[0] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4081ca // ld1 {v10.s}[0], [x14] .long 0xb9404fee // ldr w14, [sp, #76] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4091ca // ld1 {v10.s}[1], [x14] .long 0xb94183ee // ldr w14, [sp, #384] .long 0xbc6e5921 // ldr s1, [x9, w14, uxtw #2] .long 0xb9411fee // ldr w14, [sp, #284] .long 0x6e1c0427 // mov v7.s[3], v1.s[0] .long 0xbc6e5922 // ldr s2, [x9, w14, uxtw #2] .long 0xb9410bee // ldr w14, [sp, #264] .long 0x6e1c0452 // mov v18.s[3], v2.s[0] .long 0xbc6e5920 // ldr s0, [x9, w14, uxtw #2] .long 0xb9405bee // ldr w14, [sp, #88] .long 0x6e1c0413 // mov v19.s[3], v0.s[0] .long 0xbc6e5926 // ldr s6, [x9, w14, uxtw #2] .long 0xb94023ee // ldr w14, [sp, #32] .long 0x3d8063e7 // str q7, [sp, #384] .long 0x0d40816e // ld1 {v14.s}[0], [x11] .long 0xb94033eb // ldr w11, [sp, #48] .long 0x8b2e492e // add x14, x9, w14, uxtw #2 .long 0x0d4081cd // ld1 {v13.s}[0], [x14] .long 0x6e1404ca // mov v10.s[2], v6.s[0] .long 0x8b2b492b // add x11, x9, w11, uxtw #2 .long 0x0d40916d // ld1 {v13.s}[1], [x11] .long 0xb94027eb // ldr w11, [sp, #36] .long 0x8b2b492b // add x11, x9, w11, uxtw #2 .long 0x0d40916e // ld1 {v14.s}[1], [x11] .long 0xb9403beb // ldr w11, [sp, #56] .long 0xbc6b5921 // ldr s1, [x9, w11, uxtw #2] .long 0xb9402beb // ldr w11, [sp, #40] .long 0x6e14042d // mov v13.s[2], v1.s[0] .long 0xbc6b5922 // ldr s2, [x9, w11, uxtw #2] .long 0xb94133eb // ldr w11, [sp, #304] .long 0x6e14044e // mov v14.s[2], v2.s[0] .long 0xbc6b5920 // ldr s0, [x9, w11, uxtw #2] .long 0xb94117eb // ldr w11, [sp, #276] .long 0x6e1c0418 // mov v24.s[3], v0.s[0] .long 0xbc6b5926 // ldr s6, [x9, w11, uxtw #2] .long 0x3d804ff8 // str q24, [sp, #304] .long 0x8b33492b // add x11, x9, w19, uxtw #2 .long 0x6e1c04db // mov v27.s[3], v6.s[0] .long 0x3d805bfb // str q27, [sp, #352] .long 0x0d40817c // ld1 {v28.s}[0], [x11] .long 0x8b21492b // add x11, x9, w1, uxtw #2 .long 0x0d40817b // ld1 {v27.s}[0], [x11] .long 0x8b3a492b // add x11, x9, w26, uxtw #2 .long 0x0d40917c // ld1 {v28.s}[1], [x11] .long 0x8b22492b // add x11, x9, w2, uxtw #2 .long 0x0d40917b // ld1 {v27.s}[1], [x11] .long 0xb9412beb // ldr w11, [sp, #296] .long 0xbc795920 // ldr s0, [x9, w25, uxtw #2] .long 0xbc7b5926 // ldr s6, [x9, w27, uxtw #2] .long 0xf941e7e1 // ldr x1, [sp, #968] .long 0xbc6b5921 // ldr s1, [x9, w11, uxtw #2] .long 0xb94113eb // ldr w11, [sp, #272] .long 0x6e14041c // mov v28.s[2], v0.s[0] .long 0x6e1404db // mov v27.s[2], v6.s[0] .long 0x6e1c0435 // mov v21.s[3], v1.s[0] .long 0xbc6b5922 // ldr s2, [x9, w11, uxtw #2] .long 0x8b3e492b // add x11, x9, w30, uxtw #2 .long 0x0d408179 // ld1 {v25.s}[0], [x11] .long 0x8b31492b // add x11, x9, w17, uxtw #2 .long 0x0d408178 // ld1 {v24.s}[0], [x11] .long 0x8b25492b // add x11, x9, w5, uxtw #2 .long 0x0d409179 // ld1 {v25.s}[1], [x11] .long 0x8b23492b // add x11, x9, w3, uxtw #2 .long 0x0d409178 // ld1 {v24.s}[1], [x11] .long 0xb9414beb // ldr w11, [sp, #328] .long 0xbc775921 // ldr s1, [x9, w23, uxtw #2] .long 0x6e1c0456 // mov v22.s[3], v2.s[0] .long 0xbc7c5922 // ldr s2, [x9, w28, uxtw #2] .long 0xbc6b5920 // ldr s0, [x9, w11, uxtw #2] .long 0xb94127eb // ldr w11, [sp, #292] .long 0x6e140439 // mov v25.s[2], v1.s[0] .long 0x3dc10fe1 // ldr q1, [sp, #1072] .long 0x6e140458 // mov v24.s[2], v2.s[0] .long 0xbc6b5926 // ldr s6, [x9, w11, uxtw #2] .long 0x4eb6d5e8 // fsub v8.4s, v15.4s, v22.4s .long 0x6e1c0401 // mov v1.s[3], v0.s[0] .long 0x3d810fe1 // str q1, [sp, #1072] .long 0x6e1c04c9 // mov v9.s[3], v6.s[0] .long 0x0d408106 // ld1 {v6.s}[0], [x8] .long 0x8b344928 // add x8, x9, w20, uxtw #2 .long 0x0d408107 // ld1 {v7.s}[0], [x8] .long 0x8b354928 // add x8, x9, w21, uxtw #2 .long 0x0d409106 // ld1 {v6.s}[1], [x8] .long 0x8b274928 // add x8, x9, w7, uxtw #2 .long 0x0d409107 // ld1 {v7.s}[1], [x8] .long 0xb9414fe8 // ldr w8, [sp, #332] .long 0xbc645921 // ldr s1, [x9, w4, uxtw #2] .long 0xbc6a5922 // ldr s2, [x9, w10, uxtw #2] .long 0x4e28cf56 // fmla v22.4s, v26.4s, v8.4s .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb9412fe8 // ldr w8, [sp, #300] .long 0x6e140426 // mov v6.s[2], v1.s[0] .long 0x6e140447 // mov v7.s[2], v2.s[0] .long 0x6e1c041d // mov v29.s[3], v0.s[0] .long 0xbc685930 // ldr s16, [x9, w8, uxtw #2] .long 0xb940ffe8 // ldr w8, [sp, #252] .long 0xf941efe2 // ldr x2, [sp, #984] .long 0xf941f3e3 // ldr x3, [sp, #992] .long 0x6e1c060c // mov v12.s[3], v16.s[0] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb940fbe8 // ldr w8, [sp, #248] .long 0xf941f7e4 // ldr x4, [sp, #1000] .long 0x6e1c043f // mov v31.s[3], v1.s[0] .long 0xbc685922 // ldr s2, [x9, w8, uxtw #2] .long 0xb940e3e8 // ldr w8, [sp, #224] .long 0x6e1c044b // mov v11.s[3], v2.s[0] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb940d3e8 // ldr w8, [sp, #208] .long 0x6e1c0405 // mov v5.s[3], v0.s[0] .long 0xbc685930 // ldr s16, [x9, w8, uxtw #2] .long 0xb940c3e8 // ldr w8, [sp, #192] .long 0x6e1c0604 // mov v4.s[3], v16.s[0] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb940bbe8 // ldr w8, [sp, #184] .long 0xbc6c5930 // ldr s16, [x9, w12, uxtw #2] .long 0x6e1c042a // mov v10.s[3], v1.s[0] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0x8b2d4928 // add x8, x9, w13, uxtw #2 .long 0x0d408103 // ld1 {v3.s}[0], [x8] .long 0x8b364928 // add x8, x9, w22, uxtw #2 .long 0x6e1c040d // mov v13.s[3], v0.s[0] .long 0xbc705921 // ldr s1, [x9, w16, uxtw #2] .long 0x0d409103 // ld1 {v3.s}[1], [x8] .long 0xb940bfe8 // ldr w8, [sp, #188] .long 0x6e140603 // mov v3.s[2], v16.s[0] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0x8b2f4928 // add x8, x9, w15, uxtw #2 .long 0x0d408102 // ld1 {v2.s}[0], [x8] .long 0x8b384928 // add x8, x9, w24, uxtw #2 .long 0x6e1c040e // mov v14.s[3], v0.s[0] .long 0x0d409102 // ld1 {v2.s}[1], [x8] .long 0xb940b3e8 // ldr w8, [sp, #176] .long 0x6e140422 // mov v2.s[2], v1.s[0] .long 0xbc685930 // ldr s16, [x9, w8, uxtw #2] .long 0xb940a7e8 // ldr w8, [sp, #164] .long 0x6e1c061c // mov v28.s[3], v16.s[0] .long 0xbc685931 // ldr s17, [x9, w8, uxtw #2] .long 0xb9406be8 // ldr w8, [sp, #104] .long 0x6e1c063b // mov v27.s[3], v17.s[0] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb9431be8 // ldr w8, [sp, #792] .long 0x6e1c0419 // mov v25.s[3], v0.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408114 // ld1 {v20.s}[0], [x8] .long 0xb9406fe8 // ldr w8, [sp, #108] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb9405fe8 // ldr w8, [sp, #92] .long 0x6e1c0418 // mov v24.s[3], v0.s[0] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb94333e8 // ldr w8, [sp, #816] .long 0x6e1c0426 // mov v6.s[3], v1.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409114 // ld1 {v20.s}[1], [x8] .long 0xb94343e8 // ldr w8, [sp, #832] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408114 // ld1 {v20.s}[2], [x8] .long 0xb94313e8 // ldr w8, [sp, #784] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408111 // ld1 {v17.s}[0], [x8] .long 0xb94067e8 // ldr w8, [sp, #100] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb94353e8 // ldr w8, [sp, #848] .long 0x6e1c0407 // mov v7.s[3], v0.s[0] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb94317e8 // ldr w8, [sp, #788] .long 0x3dc007e0 // ldr q0, [sp, #16] .long 0x6e1c0434 // mov v20.s[3], v1.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409111 // ld1 {v17.s}[1], [x8] .long 0xb9431fe8 // ldr w8, [sp, #796] .long 0x4eb2d400 // fsub v0.4s, v0.4s, v18.4s .long 0x4e20cf52 // fmla v18.4s, v26.4s, v0.4s .long 0x4eb3d7c0 // fsub v0.4s, v30.4s, v19.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408111 // ld1 {v17.s}[2], [x8] .long 0xb94323e8 // ldr w8, [sp, #800] .long 0x4e20cf53 // fmla v19.4s, v26.4s, v0.4s .long 0x3dc027e0 // ldr q0, [sp, #144] .long 0xbc685921 // ldr s1, [x9, w8, uxtw #2] .long 0xb9427fe8 // ldr w8, [sp, #636] .long 0x3d80cbf2 // str q18, [sp, #800] .long 0x3d80d7f3 // str q19, [sp, #848] .long 0x4eb5d400 // fsub v0.4s, v0.4s, v21.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408110 // ld1 {v16.s}[0], [x8] .long 0xb942afe8 // ldr w8, [sp, #684] .long 0x4e20cf55 // fmla v21.4s, v26.4s, v0.4s .long 0x3d80d3f5 // str q21, [sp, #832] .long 0xbc665920 // ldr s0, [x9, w6, uxtw #2] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409110 // ld1 {v16.s}[1], [x8] .long 0xb942efe8 // ldr w8, [sp, #748] .long 0x3d80cff6 // str q22, [sp, #816] .long 0x6e1c0403 // mov v3.s[3], v0.s[0] .long 0x6e1c0431 // mov v17.s[3], v1.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408110 // ld1 {v16.s}[2], [x8] .long 0xb9423fe8 // ldr w8, [sp, #572] .long 0x3dc063e1 // ldr q1, [sp, #384] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408108 // ld1 {v8.s}[0], [x8] .long 0xb940b7e8 // ldr w8, [sp, #180] .long 0x4ea4d42f // fsub v15.4s, v1.4s, v4.4s .long 0x4e2fcf44 // fmla v4.4s, v26.4s, v15.4s .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb9430fe8 // ldr w8, [sp, #780] .long 0x6e1c0402 // mov v2.s[3], v0.s[0] .long 0xbc685932 // ldr s18, [x9, w8, uxtw #2] .long 0xb9428be8 // ldr w8, [sp, #648] .long 0x3dc05fe0 // ldr q0, [sp, #368] .long 0x6e1c0650 // mov v16.s[3], v18.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409108 // ld1 {v8.s}[1], [x8] .long 0xb942abe8 // ldr w8, [sp, #680] .long 0x4ebfd400 // fsub v0.4s, v0.4s, v31.4s .long 0x4e20cf5f // fmla v31.4s, v26.4s, v0.4s .long 0x3dc057e0 // ldr q0, [sp, #336] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408108 // ld1 {v8.s}[2], [x8] .long 0xb942cfe8 // ldr w8, [sp, #716] .long 0x4eabd400 // fsub v0.4s, v0.4s, v11.4s .long 0x4e20cf4b // fmla v11.4s, v26.4s, v0.4s .long 0x4ea5d6e0 // fsub v0.4s, v23.4s, v5.4s .long 0xbc685932 // ldr s18, [x9, w8, uxtw #2] .long 0xb9428fe8 // ldr w8, [sp, #652] .long 0x4e20cf45 // fmla v5.4s, v26.4s, v0.4s .long 0x6e1c0648 // mov v8.s[3], v18.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d40811e // ld1 {v30.s}[0], [x8] .long 0xb9421be8 // ldr w8, [sp, #536] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408112 // ld1 {v18.s}[0], [x8] .long 0xb942cbe8 // ldr w8, [sp, #712] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d40911e // ld1 {v30.s}[1], [x8] .long 0xb9425fe8 // ldr w8, [sp, #604] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409112 // ld1 {v18.s}[1], [x8] .long 0xb942d3e8 // ldr w8, [sp, #720] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d40811e // ld1 {v30.s}[2], [x8] .long 0xb9427be8 // ldr w8, [sp, #632] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408112 // ld1 {v18.s}[2], [x8] .long 0xb942f3e8 // ldr w8, [sp, #752] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb94287e8 // ldr w8, [sp, #644] .long 0x6e1c041e // mov v30.s[3], v0.s[0] .long 0xbc685933 // ldr s19, [x9, w8, uxtw #2] .long 0xb9423be8 // ldr w8, [sp, #568] .long 0x3dc04fe0 // ldr q0, [sp, #304] .long 0x4ebed694 // fsub v20.4s, v20.4s, v30.4s .long 0x6e1c0672 // mov v18.s[3], v19.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408113 // ld1 {v19.s}[0], [x8] .long 0xb94203e8 // ldr w8, [sp, #512] .long 0x4eadd400 // fsub v0.4s, v0.4s, v13.4s .long 0x4e20cf4d // fmla v13.4s, v26.4s, v0.4s .long 0x3dc05be0 // ldr q0, [sp, #352] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d40810f // ld1 {v15.s}[0], [x8] .long 0xb94283e8 // ldr w8, [sp, #640] .long 0x4eaed400 // fsub v0.4s, v0.4s, v14.4s .long 0x4e20cf4e // fmla v14.4s, v26.4s, v0.4s .long 0x4e34cf5e // fmla v30.4s, v26.4s, v20.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409113 // ld1 {v19.s}[1], [x8] .long 0xb94217e8 // ldr w8, [sp, #532] .long 0x4eaad652 // fsub v18.4s, v18.4s, v10.4s .long 0x4e32cf4a // fmla v10.4s, v26.4s, v18.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d40910f // ld1 {v15.s}[1], [x8] .long 0xb94293e8 // ldr w8, [sp, #656] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408113 // ld1 {v19.s}[2], [x8] .long 0xb9421fe8 // ldr w8, [sp, #540] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d40810f // ld1 {v15.s}[2], [x8] .long 0xb941ffe8 // ldr w8, [sp, #508] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408101 // ld1 {v1.s}[0], [x8] .long 0xb942b3e8 // ldr w8, [sp, #688] .long 0xbc685920 // ldr s0, [x9, w8, uxtw #2] .long 0xb94243e8 // ldr w8, [sp, #576] .long 0x6e1c0413 // mov v19.s[3], v0.s[0] .long 0xbc685935 // ldr s21, [x9, w8, uxtw #2] .long 0xb9420be8 // ldr w8, [sp, #520] .long 0x3dc10fe0 // ldr q0, [sp, #1072] .long 0x4eb3d631 // fsub v17.4s, v17.4s, v19.4s .long 0x6e1c06af // mov v15.s[3], v21.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409101 // ld1 {v1.s}[1], [x8] .long 0xb9420fe8 // ldr w8, [sp, #524] .long 0x4eb9d400 // fsub v0.4s, v0.4s, v25.4s .long 0x4e20cf59 // fmla v25.4s, v26.4s, v0.4s .long 0x4eb8d520 // fsub v0.4s, v9.4s, v24.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408101 // ld1 {v1.s}[2], [x8] .long 0xb94213e8 // ldr w8, [sp, #528] .long 0x4e20cf58 // fmla v24.4s, v26.4s, v0.4s .long 0x4ea6d7a0 // fsub v0.4s, v29.4s, v6.4s .long 0x4e20cf46 // fmla v6.4s, v26.4s, v0.4s .long 0xbc685935 // ldr s21, [x9, w8, uxtw #2] .long 0xb941fbe8 // ldr w8, [sp, #504] .long 0x4ea7d589 // fsub v9.4s, v12.4s, v7.4s .long 0x4e29cf47 // fmla v7.4s, v26.4s, v9.4s .long 0x6e1c06a1 // mov v1.s[3], v21.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408115 // ld1 {v21.s}[0], [x8] .long 0xb94207e8 // ldr w8, [sp, #516] .long 0x4e31cf53 // fmla v19.4s, v26.4s, v17.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409115 // ld1 {v21.s}[1], [x8] .long 0xb941ebe8 // ldr w8, [sp, #488] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408100 // ld1 {v0.s}[0], [x8] .long 0xb941b3e8 // ldr w8, [sp, #432] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d40811d // ld1 {v29.s}[0], [x8] .long 0xb941efe8 // ldr w8, [sp, #492] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409100 // ld1 {v0.s}[1], [x8] .long 0xb941dfe8 // ldr w8, [sp, #476] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d40911d // ld1 {v29.s}[1], [x8] .long 0xb94223e8 // ldr w8, [sp, #544] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408115 // ld1 {v21.s}[2], [x8] .long 0xb941f3e8 // ldr w8, [sp, #496] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408100 // ld1 {v0.s}[2], [x8] .long 0xb941e3e8 // ldr w8, [sp, #480] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d40811d // ld1 {v29.s}[2], [x8] .long 0xb94263e8 // ldr w8, [sp, #608] .long 0xbc68592c // ldr s12, [x9, w8, uxtw #2] .long 0xb941f7e8 // ldr w8, [sp, #500] .long 0x6e1c0595 // mov v21.s[3], v12.s[0] .long 0xbc685936 // ldr s22, [x9, w8, uxtw #2] .long 0xb941e7e8 // ldr w8, [sp, #484] .long 0x4eb5d610 // fsub v16.4s, v16.4s, v21.4s .long 0x4e30cf55 // fmla v21.4s, v26.4s, v16.4s .long 0x6e1c06c0 // mov v0.s[3], v22.s[0] .long 0xbc685937 // ldr s23, [x9, w8, uxtw #2] .long 0xb9419fe8 // ldr w8, [sp, #412] .long 0x4ea3d796 // fsub v22.4s, v28.4s, v3.4s .long 0x4e36cf43 // fmla v3.4s, v26.4s, v22.4s .long 0x4ea2d776 // fsub v22.4s, v27.4s, v2.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4e36cf42 // fmla v2.4s, v26.4s, v22.4s .long 0x0d408116 // ld1 {v22.s}[0], [x8] .long 0xb94103e8 // ldr w8, [sp, #256] .long 0x6e1c06fd // mov v29.s[3], v23.s[0] .long 0x4ea0d510 // fsub v16.4s, v8.4s, v0.4s .long 0x4e30cf40 // fmla v0.4s, v26.4s, v16.4s .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408117 // ld1 {v23.s}[0], [x8] .long 0xb941a3e8 // ldr w8, [sp, #416] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409116 // ld1 {v22.s}[1], [x8] .long 0xb94123e8 // ldr w8, [sp, #288] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409117 // ld1 {v23.s}[1], [x8] .long 0xb941c3e8 // ldr w8, [sp, #448] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408116 // ld1 {v22.s}[2], [x8] .long 0xb94197e8 // ldr w8, [sp, #404] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408117 // ld1 {v23.s}[2], [x8] .long 0xb941dbe8 // ldr w8, [sp, #472] .long 0xbc68593b // ldr s27, [x9, w8, uxtw #2] .long 0xb9419be8 // ldr w8, [sp, #408] .long 0x6e1c0776 // mov v22.s[3], v27.s[0] .long 0xbc68593c // ldr s28, [x9, w8, uxtw #2] .long 0xb940f7e8 // ldr w8, [sp, #244] .long 0x4eb6d5f0 // fsub v16.4s, v15.4s, v22.4s .long 0x4e30cf56 // fmla v22.4s, v26.4s, v16.4s .long 0x6e1c0797 // mov v23.s[3], v28.s[0] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d408109 // ld1 {v9.s}[0], [x8] .long 0xb94107e8 // ldr w8, [sp, #260] .long 0x4eb7d421 // fsub v1.4s, v1.4s, v23.4s .long 0x4e21cf57 // fmla v23.4s, v26.4s, v1.4s .long 0x3dc0e7f0 // ldr q16, [sp, #912] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x0d409109 // ld1 {v9.s}[1], [x8] .long 0xb9410fe8 // ldr w8, [sp, #268] .long 0x8b284928 // add x8, x9, w8, uxtw #2 .long 0x4d408109 // ld1 {v9.s}[2], [x8] .long 0xb9411be8 // ldr w8, [sp, #280] .long 0xbc685934 // ldr s20, [x9, w8, uxtw #2] .long 0xf941ebe8 // ldr x8, [sp, #976] .long 0x6e1c0689 // mov v9.s[3], v20.s[0] .long 0x4ea9d7a1 // fsub v1.4s, v29.4s, v9.4s .long 0x4e21cf49 // fmla v9.4s, v26.4s, v1.4s .long 0x3dc0dbe1 // ldr q1, [sp, #864] .long 0xf9400505 // ldr x5, [x8, #8] .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x4ea1d601 // fsub v1.4s, v16.4s, v1.4s .long 0x3dc0cbf0 // ldr q16, [sp, #800] .long 0x4ea5d610 // fsub v16.4s, v16.4s, v5.4s .long 0x4e30cc25 // fmla v5.4s, v1.4s, v16.4s .long 0x3dc0d7f0 // ldr q16, [sp, #848] .long 0x4ea4d610 // fsub v16.4s, v16.4s, v4.4s .long 0x4e30cc24 // fmla v4.4s, v1.4s, v16.4s .long 0x3dc0d3f0 // ldr q16, [sp, #832] .long 0x4eadd610 // fsub v16.4s, v16.4s, v13.4s .long 0x4e30cc2d // fmla v13.4s, v1.4s, v16.4s .long 0x3dc0cff0 // ldr q16, [sp, #816] .long 0x4eaed610 // fsub v16.4s, v16.4s, v14.4s .long 0x4e30cc2e // fmla v14.4s, v1.4s, v16.4s .long 0x4ea6d7f0 // fsub v16.4s, v31.4s, v6.4s .long 0x4e30cc26 // fmla v6.4s, v1.4s, v16.4s .long 0x4ea7d570 // fsub v16.4s, v11.4s, v7.4s .long 0x4e30cc27 // fmla v7.4s, v1.4s, v16.4s .long 0x4ea3d730 // fsub v16.4s, v25.4s, v3.4s .long 0x4e30cc23 // fmla v3.4s, v1.4s, v16.4s .long 0x4ea2d710 // fsub v16.4s, v24.4s, v2.4s .long 0x4e30cc22 // fmla v2.4s, v1.4s, v16.4s .long 0x4eaad670 // fsub v16.4s, v19.4s, v10.4s .long 0x4e30cc2a // fmla v10.4s, v1.4s, v16.4s .long 0x4ea0d7d0 // fsub v16.4s, v30.4s, v0.4s .long 0x4e30cc20 // fmla v0.4s, v1.4s, v16.4s .long 0x4eb7d6b0 // fsub v16.4s, v21.4s, v23.4s .long 0x4e30cc37 // fmla v23.4s, v1.4s, v16.4s .long 0x4ea9d6d0 // fsub v16.4s, v22.4s, v9.4s .long 0x4e30cc29 // fmla v9.4s, v1.4s, v16.4s .long 0x3dc0dfe1 // ldr q1, [sp, #880] .long 0x3dc0ebf0 // ldr q16, [sp, #928] .long 0x4ea3d4c6 // fsub v6.4s, v6.4s, v3.4s .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x4ea1d601 // fsub v1.4s, v16.4s, v1.4s .long 0x4e26cc23 // fmla v3.4s, v1.4s, v6.4s .long 0x4ea2d4e6 // fsub v6.4s, v7.4s, v2.4s .long 0x4ea5d5b0 // fsub v16.4s, v13.4s, v5.4s .long 0x4e26cc22 // fmla v2.4s, v1.4s, v6.4s .long 0x4ea0d546 // fsub v6.4s, v10.4s, v0.4s .long 0x4e30cc25 // fmla v5.4s, v1.4s, v16.4s .long 0x4ea4d5d0 // fsub v16.4s, v14.4s, v4.4s .long 0x4e26cc20 // fmla v0.4s, v1.4s, v6.4s .long 0x4ea9d6e6 // fsub v6.4s, v23.4s, v9.4s .long 0x4e30cc24 // fmla v4.4s, v1.4s, v16.4s .long 0x4e26cc29 // fmla v9.4s, v1.4s, v6.4s .long 0x3dc0e3e1 // ldr q1, [sp, #896] .long 0x3dc0efe6 // ldr q6, [sp, #944] .long 0x4ea5d463 // fsub v3.4s, v3.4s, v5.4s .long 0x4ea4d442 // fsub v2.4s, v2.4s, v4.4s .long 0x4e21d821 // scvtf v1.4s, v1.4s .long 0x4ea1d4c1 // fsub v1.4s, v6.4s, v1.4s .long 0x4e23cc25 // fmla v5.4s, v1.4s, v3.4s .long 0x4e22cc24 // fmla v4.4s, v1.4s, v2.4s .long 0x4ea0d522 // fsub v2.4s, v9.4s, v0.4s .long 0x4e22cc20 // fmla v0.4s, v1.4s, v2.4s .long 0x4ea51ca1 // mov v1.16b, v5.16b .long 0x4ea41c82 // mov v2.16b, v4.16b .long 0xad5f97e4 // ldp q4, q5, [sp, #1008] .long 0x3dc107e6 // ldr q6, [sp, #1040] .long 0x3dc10be7 // ldr q7, [sp, #1056] .long 0x4f03f603 // fmov v3.4s, #1.000000000000000000e+00 .long 0x911143ff // add sp, sp, #0x450 .long 0xa9497bfd // ldp x29, x30, [sp, #144] .long 0xa9484ff4 // ldp x20, x19, [sp, #128] .long 0xa94757f6 // ldp x22, x21, [sp, #112] .long 0xa9465ff8 // ldp x24, x23, [sp, #96] .long 0xa94567fa // ldp x26, x25, [sp, #80] .long 0xa9446ffc // ldp x28, x27, [sp, #64] .long 0x6d4323e9 // ldp d9, d8, [sp, #48] .long 0x6d422beb // ldp d11, d10, [sp, #32] .long 0x6d4133ed // ldp d13, d12, [sp, #16] .long 0x6cca3bef // ldp d15, d14, [sp], #160 .long 0xd61f00a0 // br x5 #elif defined(__arm__) BALIGN4 HIDDEN _sk_start_pipeline_vfp4 .globl _sk_start_pipeline_vfp4 FUNCTION(_sk_start_pipeline_vfp4) _sk_start_pipeline_vfp4: .long 0xe92d4ff0 // push {r4, r5, r6, r7, r8, r9, sl, fp, lr} .long 0xe28db01c // add fp, sp, #28 .long 0xe24dd06c // sub sp, sp, #108 .long 0xe7c3d01f // bfc sp, #0, #4 .long 0xe1a06001 // mov r6, r1 .long 0xe1a05002 // mov r5, r2 .long 0xe1a09000 // mov r9, r0 .long 0xe1560003 // cmp r6, r3 .long 0xe58d300c // str r3, [sp, #12] .long 0x2a00001f // bcs a8 .long 0xe59b4008 // ldr r4, [fp, #8] .long 0xe2898004 // add r8, r9, #4 .long 0xe28d7010 // add r7, sp, #16 .long 0xe494a004 // ldr sl, [r4], #4 .long 0xe3a00000 // mov r0, #0 .long 0xe58d9010 // str r9, [sp, #16] .long 0xe58d6014 // str r6, [sp, #20] .long 0xe1580005 // cmp r8, r5 .long 0xe58d0018 // str r0, [sp, #24] .long 0xe59b000c // ldr r0, [fp, #12] .long 0xe58d001c // str r0, [sp, #28] .long 0xe1a00009 // mov r0, r9 .long 0x8a000008 // bhi 80 .long 0xe1a00007 // mov r0, r7 .long 0xe1a01004 // mov r1, r4 .long 0xe12fff3a // blx sl .long 0xe59d1010 // ldr r1, [sp, #16] .long 0xe2810004 // add r0, r1, #4 .long 0xe2811008 // add r1, r1, #8 .long 0xe1510005 // cmp r1, r5 .long 0xe58d0010 // str r0, [sp, #16] .long 0x9afffff6 // bls 5c .long 0xe0550000 // subs r0, r5, r0 .long 0x0a000003 // beq 98 .long 0xe58d0018 // str r0, [sp, #24] .long 0xe1a00007 // mov r0, r7 .long 0xe1a01004 // mov r1, r4 .long 0xe12fff3a // blx sl .long 0xe59d000c // ldr r0, [sp, #12] .long 0xe2866001 // add r6, r6, #1 .long 0xe1560000 // cmp r6, r0 .long 0x1affffe3 // bne 38 .long 0xe24bd01c // sub sp, fp, #28 .long 0xe8bd8ff0 // pop {r4, r5, r6, r7, r8, r9, sl, fp, pc} HIDDEN _sk_just_return_vfp4 .globl _sk_just_return_vfp4 FUNCTION(_sk_just_return_vfp4) _sk_just_return_vfp4: .long 0xe12fff1e // bx lr .long 0xe320f000 // nop {0} HIDDEN _sk_seed_shader_vfp4 .globl _sk_seed_shader_vfp4 FUNCTION(_sk_seed_shader_vfp4) _sk_seed_shader_vfp4: .long 0xe1a02000 // mov r2, r0 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf4e20cbd // vld1.32 {d16[]-d17[]}, [r2 :32]! .long 0xf2c06050 // vmov.i32 q11, #0 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xe590200c // ldr r2, [r0, #12] .long 0xe28f3040 // add r3, pc, #64 .long 0xf2400de4 // vadd.f32 q8, q8, q10 .long 0xf4234acf // vld1.64 {d4-d5}, [r3] .long 0xf4628a8f // vld1.32 {d24-d25}, [r2] .long 0xe2802040 // add r2, r0, #64 .long 0xf2022de4 // vadd.f32 q1, q9, q10 .long 0xf4426aef // vst1.64 {d22-d23}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf2080de0 // vadd.f32 q0, q12, q8 .long 0xf4426aef // vst1.64 {d22-d23}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2806050 // vmov.i32 q3, #0 .long 0xf4426aef // vst1.64 {d22-d23}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf4426aef // vst1.64 {d22-d23}, [r2 :128] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_dither_vfp4 .globl _sk_dither_vfp4 FUNCTION(_sk_dither_vfp4) _sk_dither_vfp4: .long 0xe590200c // ldr r2, [r0, #12] .long 0xe1a03000 // mov r3, r0 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf2c04051 // vmov.i32 q10, #1 .long 0xe2822020 // add r2, r2, #32 .long 0xf2c06054 // vmov.i32 q11, #4 .long 0xf4e3acbf // vld1.32 {d26[]-d27[]}, [r3 :32] .long 0xf4622a8f // vld1.32 {d18-d19}, [r2] .long 0xe3a025f2 // mov r2, #1015021568 .long 0xf26208e0 // vadd.i32 q8, q9, q8 .long 0xf2c02052 // vmov.i32 q9, #2 .long 0xf24081f4 // vand q12, q8, q10 .long 0xf240c1f2 // vand q14, q8, q9 .long 0xf34aa1f0 // veor q13, q13, q8 .long 0xf24001f6 // vand q8, q8, q11 .long 0xf2e48578 // vshl.s32 q12, q12, #4 .long 0xf2e1c57c // vshl.s32 q14, q14, #1 .long 0xf24a41f4 // vand q10, q13, q10 .long 0xf3fe0070 // vshr.u32 q8, q8, #2 .long 0xf26c81f8 // vorr q12, q14, q12 .long 0xf24a21f2 // vand q9, q13, q9 .long 0xf2e54574 // vshl.s32 q10, q10, #5 .long 0xf26801f0 // vorr q8, q12, q8 .long 0xf24a61f6 // vand q11, q13, q11 .long 0xf26001f4 // vorr q8, q8, q10 .long 0xf2e22572 // vshl.s32 q9, q9, #2 .long 0xf3ff4076 // vshr.u32 q10, q11, #1 .long 0xf26001f2 // vorr q8, q8, q9 .long 0xeea22b90 // vdup.32 q9, r2 .long 0xe28f2054 // add r2, pc, #84 .long 0xe5913000 // ldr r3, [r1] .long 0xf26001f4 // vorr q8, q8, q10 .long 0xf2c06050 // vmov.i32 q11, #0 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3400df2 // vmul.f32 q8, q8, q9 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf2400de2 // vadd.f32 q8, q8, q9 .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xf3420df0 // vmul.f32 q8, q9, q8 .long 0xf2402dc0 // vadd.f32 q9, q8, q0 .long 0xf2404dc2 // vadd.f32 q10, q8, q1 .long 0xf2400dc4 // vadd.f32 q8, q8, q2 .long 0xf2622fc6 // vmin.f32 q9, q9, q3 .long 0xf2644fc6 // vmin.f32 q10, q10, q3 .long 0xf2600fc6 // vmin.f32 q8, q8, q3 .long 0xf2060fe2 // vmax.f32 q0, q11, q9 .long 0xf2062fe4 // vmax.f32 q1, q11, q10 .long 0xf2064fe0 // vmax.f32 q2, q11, q8 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0xbefc0000 // .word 0xbefc0000 .long 0xbefc0000 // .word 0xbefc0000 .long 0xbefc0000 // .word 0xbefc0000 .long 0xbefc0000 // .word 0xbefc0000 HIDDEN _sk_uniform_color_vfp4 .globl _sk_uniform_color_vfp4 FUNCTION(_sk_uniform_color_vfp4) _sk_uniform_color_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe283200c // add r2, r3, #12 .long 0xe1a0e003 // mov lr, r3 .long 0xf4ae0cbd // vld1.32 {d0[]-d1[]}, [lr :32]! .long 0xf4a26cbf // vld1.32 {d6[]-d7[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf4a24cbf // vld1.32 {d4[]-d5[]}, [r2 :32] .long 0xf4ae2cbf // vld1.32 {d2[]-d3[]}, [lr :32] .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_black_color_vfp4 .globl _sk_black_color_vfp4 FUNCTION(_sk_black_color_vfp4) _sk_black_color_vfp4: .long 0xe28f2018 // add r2, pc, #24 .long 0xf2800050 // vmov.i32 q0, #0 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xf2802050 // vmov.i32 q1, #0 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_white_color_vfp4 .globl _sk_white_color_vfp4 FUNCTION(_sk_white_color_vfp4) _sk_white_color_vfp4: .long 0xe28f2018 // add r2, pc, #24 .long 0xf4220acf // vld1.64 {d0-d1}, [r2] .long 0xf2202150 // vorr q1, q0, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2204150 // vorr q2, q0, q0 .long 0xf2206150 // vorr q3, q0, q0 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_load_rgba_vfp4 .globl _sk_load_rgba_vfp4 FUNCTION(_sk_load_rgba_vfp4) _sk_load_rgba_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe2832030 // add r2, r3, #48 .long 0xe1a0e003 // mov lr, r3 .long 0xf4226a8f // vld1.32 {d6-d7}, [r2] .long 0xe2832020 // add r2, r3, #32 .long 0xf42e0a8d // vld1.32 {d0-d1}, [lr]! .long 0xf4224a8f // vld1.32 {d4-d5}, [r2] .long 0xf42e2a8f // vld1.32 {d2-d3}, [lr] .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_store_rgba_vfp4 .globl _sk_store_rgba_vfp4 FUNCTION(_sk_store_rgba_vfp4) _sk_store_rgba_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xe1a03002 // mov r3, r2 .long 0xf4030a8d // vst1.32 {d0-d1}, [r3]! .long 0xf4032a8f // vst1.32 {d2-d3}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xe2822030 // add r2, r2, #48 .long 0xf4034a8f // vst1.32 {d4-d5}, [r3] .long 0xf4026a8f // vst1.32 {d6-d7}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 HIDDEN _sk_clear_vfp4 .globl _sk_clear_vfp4 FUNCTION(_sk_clear_vfp4) _sk_clear_vfp4: .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2800050 // vmov.i32 q0, #0 .long 0xf2802050 // vmov.i32 q1, #0 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf2806050 // vmov.i32 q3, #0 .long 0xe12fff12 // bx r2 HIDDEN _sk_srcatop_vfp4 .globl _sk_srcatop_vfp4 FUNCTION(_sk_srcatop_vfp4) _sk_srcatop_vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2802040 // add r2, r0, #64 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf2602dc6 // vsub.f32 q9, q8, q3 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3046dd6 // vmul.f32 q3, q10, q3 .long 0xf3042dd2 // vmul.f32 q1, q10, q1 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xf3044dd4 // vmul.f32 q2, q10, q2 .long 0xe2802030 // add r2, r0, #48 .long 0xf3420df0 // vmul.f32 q8, q9, q8 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xf2026cf4 // vfma.f32 q3, q9, q10 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2022cf6 // vfma.f32 q1, q9, q11 .long 0xf2440cd0 // vfma.f32 q8, q10, q0 .long 0xf2024cf8 // vfma.f32 q2, q9, q12 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xe12fff12 // bx r2 HIDDEN _sk_dstatop_vfp4 .globl _sk_dstatop_vfp4 FUNCTION(_sk_dstatop_vfp4) _sk_dstatop_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf2606de4 // vsub.f32 q11, q8, q10 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3400dd6 // vmul.f32 q8, q8, q3 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf3444dd6 // vmul.f32 q10, q10, q3 .long 0xf3422dd6 // vmul.f32 q9, q9, q3 .long 0xe2802030 // add r2, r0, #48 .long 0xf3064dd4 // vmul.f32 q2, q11, q2 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xf2460cd0 // vfma.f32 q8, q11, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2462cd2 // vfma.f32 q9, q11, q1 .long 0xf2464cd6 // vfma.f32 q10, q11, q3 .long 0xf2084cd6 // vfma.f32 q2, q12, q3 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22461f4 // vorr q3, q10, q10 .long 0xe12fff12 // bx r2 HIDDEN _sk_srcin_vfp4 .globl _sk_srcin_vfp4 FUNCTION(_sk_srcin_vfp4) _sk_srcin_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xf3000dd0 // vmul.f32 q0, q8, q0 .long 0xf3002dd2 // vmul.f32 q1, q8, q1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3004dd4 // vmul.f32 q2, q8, q2 .long 0xf3006dd6 // vmul.f32 q3, q8, q3 .long 0xe12fff12 // bx r2 HIDDEN _sk_dstin_vfp4 .globl _sk_dstin_vfp4 FUNCTION(_sk_dstin_vfp4) _sk_dstin_vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf3000dd6 // vmul.f32 q0, q8, q3 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3024dd6 // vmul.f32 q2, q9, q3 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf3042dd6 // vmul.f32 q1, q10, q3 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xf3006dd6 // vmul.f32 q3, q8, q3 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 HIDDEN _sk_srcout_vfp4 .globl _sk_srcout_vfp4 FUNCTION(_sk_srcout_vfp4) _sk_srcout_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3000dd0 // vmul.f32 q0, q8, q0 .long 0xf3002dd2 // vmul.f32 q1, q8, q1 .long 0xf3004dd4 // vmul.f32 q2, q8, q2 .long 0xf3006dd6 // vmul.f32 q3, q8, q3 .long 0xe12fff12 // bx r2 HIDDEN _sk_dstout_vfp4 .globl _sk_dstout_vfp4 FUNCTION(_sk_dstout_vfp4) _sk_dstout_vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2802010 // add r2, r0, #16 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf2600dc6 // vsub.f32 q8, q8, q3 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf3000df2 // vmul.f32 q0, q8, q9 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf3002df6 // vmul.f32 q1, q8, q11 .long 0xf3004df4 // vmul.f32 q2, q8, q10 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3006df2 // vmul.f32 q3, q8, q9 .long 0xe12fff12 // bx r2 HIDDEN _sk_srcover_vfp4 .globl _sk_srcover_vfp4 FUNCTION(_sk_srcover_vfp4) _sk_srcover_vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2802010 // add r2, r0, #16 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2600dc6 // vsub.f32 q8, q8, q3 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf2020cf0 // vfma.f32 q0, q9, q8 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf2042cf0 // vfma.f32 q1, q10, q8 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xf2024cf0 // vfma.f32 q2, q9, q8 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2046cf0 // vfma.f32 q3, q10, q8 .long 0xe12fff12 // bx r2 HIDDEN _sk_dstover_vfp4 .globl _sk_dstover_vfp4 FUNCTION(_sk_dstover_vfp4) _sk_dstover_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf2628de0 // vsub.f32 q12, q9, q8 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xf2402c78 // vfma.f32 q9, q0, q12 .long 0xf2424c78 // vfma.f32 q10, q1, q12 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2446c78 // vfma.f32 q11, q2, q12 .long 0xf2460c78 // vfma.f32 q8, q3, q12 .long 0xf22201f2 // vorr q0, q9, q9 .long 0xf22421f4 // vorr q1, q10, q10 .long 0xf22641f6 // vorr q2, q11, q11 .long 0xf22061f0 // vorr q3, q8, q8 .long 0xe12fff12 // bx r2 HIDDEN _sk_modulate_vfp4 .globl _sk_modulate_vfp4 FUNCTION(_sk_modulate_vfp4) _sk_modulate_vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf3000dd0 // vmul.f32 q0, q8, q0 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3024dd4 // vmul.f32 q2, q9, q2 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf3042dd2 // vmul.f32 q1, q10, q1 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xf3006dd6 // vmul.f32 q3, q8, q3 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 HIDDEN _sk_multiply_vfp4 .globl _sk_multiply_vfp4 FUNCTION(_sk_multiply_vfp4) _sk_multiply_vfp4: .long 0xed2d8b04 // vpush {d8-d9} .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2802040 // add r2, r0, #64 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf260ade8 // vsub.f32 q13, q8, q12 .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf2606dc6 // vsub.f32 q11, q8, q3 .long 0xf4228aef // vld1.64 {d8-d9}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf34a2dd4 // vmul.f32 q9, q13, q2 .long 0xf34aedd6 // vmul.f32 q15, q13, q3 .long 0xf3460dfc // vmul.f32 q8, q11, q14 .long 0xf3464df8 // vmul.f32 q10, q11, q12 .long 0xf2420de0 // vadd.f32 q8, q9, q8 .long 0xf2442dee // vadd.f32 q9, q10, q15 .long 0xf34aedd0 // vmul.f32 q15, q13, q0 .long 0xf3464dd8 // vmul.f32 q10, q11, q4 .long 0xf34aadd2 // vmul.f32 q13, q13, q1 .long 0xf24c0cd4 // vfma.f32 q8, q14, q2 .long 0xf2482cd6 // vfma.f32 q9, q12, q3 .long 0xf2444dee // vadd.f32 q10, q10, q15 .long 0xf462eaef // vld1.64 {d30-d31}, [r2 :128] .long 0xf3466dfe // vmul.f32 q11, q11, q15 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2484c50 // vfma.f32 q10, q4, q0 .long 0xf22041f0 // vorr q2, q8, q8 .long 0xf2466dea // vadd.f32 q11, q11, q13 .long 0xf22261f2 // vorr q3, q9, q9 .long 0xf24e6cd2 // vfma.f32 q11, q15, q1 .long 0xf22401f4 // vorr q0, q10, q10 .long 0xf22621f6 // vorr q1, q11, q11 .long 0xecbd8b04 // vpop {d8-d9} .long 0xe12fff12 // bx r2 HIDDEN _sk_plus__vfp4 .globl _sk_plus__vfp4 FUNCTION(_sk_plus__vfp4) _sk_plus__vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2000dc0 // vadd.f32 q0, q8, q0 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf2022dc2 // vadd.f32 q1, q9, q1 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf2004dc4 // vadd.f32 q2, q8, q2 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2026dc6 // vadd.f32 q3, q9, q3 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 HIDDEN _sk_screen_vfp4 .globl _sk_screen_vfp4 FUNCTION(_sk_screen_vfp4) _sk_screen_vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2460dc0 // vadd.f32 q8, q11, q0 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf2482dc2 // vadd.f32 q9, q12, q1 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf24a4dc4 // vadd.f32 q10, q13, q2 .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128] .long 0xf2660cd0 // vfms.f32 q8, q11, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf24c6dc6 // vadd.f32 q11, q14, q3 .long 0xf2682cd2 // vfms.f32 q9, q12, q1 .long 0xf26a4cd4 // vfms.f32 q10, q13, q2 .long 0xf26c6cd6 // vfms.f32 q11, q14, q3 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22441f4 // vorr q2, q10, q10 .long 0xf22661f6 // vorr q3, q11, q11 .long 0xe12fff12 // bx r2 HIDDEN _sk_xor__vfp4 .globl _sk_xor__vfp4 FUNCTION(_sk_xor__vfp4) _sk_xor__vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2802010 // add r2, r0, #16 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf2606dc6 // vsub.f32 q11, q8, q3 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2608de4 // vsub.f32 q12, q8, q10 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf3460df2 // vmul.f32 q8, q11, q9 .long 0xf3462dfa // vmul.f32 q9, q11, q13 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xf3464df4 // vmul.f32 q10, q11, q10 .long 0xf3084dd4 // vmul.f32 q2, q12, q2 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2480cd0 // vfma.f32 q8, q12, q0 .long 0xf2482cd2 // vfma.f32 q9, q12, q1 .long 0xf2484cd6 // vfma.f32 q10, q12, q3 .long 0xf2064cfa // vfma.f32 q2, q11, q13 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22461f4 // vorr q3, q10, q10 .long 0xe12fff12 // bx r2 HIDDEN _sk_darken_vfp4 .globl _sk_darken_vfp4 FUNCTION(_sk_darken_vfp4) _sk_darken_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf340add0 // vmul.f32 q13, q8, q0 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3446dd6 // vmul.f32 q11, q10, q3 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xf340edd2 // vmul.f32 q15, q8, q1 .long 0xf348cdd6 // vmul.f32 q14, q12, q3 .long 0xe2802030 // add r2, r0, #48 .long 0xf2444dc0 // vadd.f32 q10, q10, q0 .long 0xf24a6fe6 // vmax.f32 q11, q13, q11 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xf24ecfec // vmax.f32 q14, q15, q14 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf24aedc4 // vadd.f32 q15, q13, q2 .long 0xf34aadd6 // vmul.f32 q13, q13, q3 .long 0xf3000dd4 // vmul.f32 q0, q8, q2 .long 0xf2622dc6 // vsub.f32 q9, q9, q3 .long 0xf2488dc2 // vadd.f32 q12, q12, q1 .long 0xf240af6a // vmax.f32 q13, q0, q13 .long 0xf2006cf2 // vfma.f32 q3, q8, q9 .long 0xf2240de6 // vsub.f32 q0, q10, q11 .long 0xf2282dec // vsub.f32 q1, q12, q14 .long 0xf22e4dea // vsub.f32 q2, q15, q13 .long 0xe12fff12 // bx r2 HIDDEN _sk_lighten_vfp4 .globl _sk_lighten_vfp4 FUNCTION(_sk_lighten_vfp4) _sk_lighten_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf340add0 // vmul.f32 q13, q8, q0 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3446dd6 // vmul.f32 q11, q10, q3 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xf340edd2 // vmul.f32 q15, q8, q1 .long 0xf348cdd6 // vmul.f32 q14, q12, q3 .long 0xe2802030 // add r2, r0, #48 .long 0xf2444dc0 // vadd.f32 q10, q10, q0 .long 0xf26a6fe6 // vmin.f32 q11, q13, q11 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xf26ecfec // vmin.f32 q14, q15, q14 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf24aedc4 // vadd.f32 q15, q13, q2 .long 0xf34aadd6 // vmul.f32 q13, q13, q3 .long 0xf3000dd4 // vmul.f32 q0, q8, q2 .long 0xf2622dc6 // vsub.f32 q9, q9, q3 .long 0xf2488dc2 // vadd.f32 q12, q12, q1 .long 0xf260af6a // vmin.f32 q13, q0, q13 .long 0xf2006cf2 // vfma.f32 q3, q8, q9 .long 0xf2240de6 // vsub.f32 q0, q10, q11 .long 0xf2282dec // vsub.f32 q1, q12, q14 .long 0xf22e4dea // vsub.f32 q2, q15, q13 .long 0xe12fff12 // bx r2 HIDDEN _sk_difference_vfp4 .globl _sk_difference_vfp4 FUNCTION(_sk_difference_vfp4) _sk_difference_vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf3404dd6 // vmul.f32 q10, q8, q3 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf3426dd0 // vmul.f32 q11, q9, q0 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xf342cdd4 // vmul.f32 q14, q9, q2 .long 0xf348add6 // vmul.f32 q13, q12, q3 .long 0xe2802020 // add r2, r0, #32 .long 0xf342edd2 // vmul.f32 q15, q9, q1 .long 0xf2400dc0 // vadd.f32 q8, q8, q0 .long 0xf2664fe4 // vmin.f32 q10, q11, q10 .long 0xf26c6fea // vmin.f32 q11, q14, q13 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xf34acdd6 // vmul.f32 q14, q13, q3 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2444de4 // vadd.f32 q10, q10, q10 .long 0xf24aadc2 // vadd.f32 q13, q13, q1 .long 0xf26ecfec // vmin.f32 q14, q15, q14 .long 0xf2c7ef50 // vmov.f32 q15, #1 .long 0xf2488dc4 // vadd.f32 q12, q12, q2 .long 0xf26eedc6 // vsub.f32 q15, q15, q3 .long 0xf24ccdec // vadd.f32 q14, q14, q14 .long 0xf2466de6 // vadd.f32 q11, q11, q11 .long 0xf2026cfe // vfma.f32 q3, q9, q15 .long 0xf2200de4 // vsub.f32 q0, q8, q10 .long 0xf22a2dec // vsub.f32 q1, q13, q14 .long 0xf2284de6 // vsub.f32 q2, q12, q11 .long 0xe12fff12 // bx r2 HIDDEN _sk_exclusion_vfp4 .globl _sk_exclusion_vfp4 FUNCTION(_sk_exclusion_vfp4) _sk_exclusion_vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf3424dd0 // vmul.f32 q10, q9, q0 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf3468dd2 // vmul.f32 q12, q11, q1 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xf2600dc6 // vsub.f32 q8, q8, q3 .long 0xe2802040 // add r2, r0, #64 .long 0xf34acdd4 // vmul.f32 q14, q13, q2 .long 0xf462eaef // vld1.64 {d30-d31}, [r2 :128] .long 0xf2422dc0 // vadd.f32 q9, q9, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2444de4 // vadd.f32 q10, q10, q10 .long 0xf2466dc2 // vadd.f32 q11, q11, q1 .long 0xf2488de8 // vadd.f32 q12, q12, q12 .long 0xf24aadc4 // vadd.f32 q13, q13, q2 .long 0xf24ccdec // vadd.f32 q14, q14, q14 .long 0xf20e6cf0 // vfma.f32 q3, q15, q8 .long 0xf2220de4 // vsub.f32 q0, q9, q10 .long 0xf2262de8 // vsub.f32 q1, q11, q12 .long 0xf22a4dec // vsub.f32 q2, q13, q14 .long 0xe12fff12 // bx r2 HIDDEN _sk_colorburn_vfp4 .globl _sk_colorburn_vfp4 FUNCTION(_sk_colorburn_vfp4) _sk_colorburn_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xe2802030 // add r2, r0, #48 .long 0xf2c76f50 // vmov.f32 q11, #1 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf2668dc6 // vsub.f32 q12, q11, q3 .long 0xf3b9c540 // vceq.f32 q6, q0, #0 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2604de2 // vsub.f32 q10, q8, q9 .long 0xf266cde0 // vsub.f32 q14, q11, q8 .long 0xf348edf2 // vmul.f32 q15, q12, q9 .long 0xf3048dd6 // vmul.f32 q4, q10, q3 .long 0xeec9baa5 // vdiv.f32 s23, s19, s11 .long 0xee89ba05 // vdiv.f32 s22, s18, s10 .long 0xeec8aaa4 // vdiv.f32 s21, s17, s9 .long 0xee88aa04 // vdiv.f32 s20, s16, s8 .long 0xf2604fca // vmin.f32 q10, q8, q5 .long 0xf260ade4 // vsub.f32 q13, q8, q10 .long 0xf34c4dd4 // vmul.f32 q10, q14, q2 .long 0xf34a6dd6 // vmul.f32 q11, q13, q3 .long 0xf462aaef // vld1.64 {d26-d27}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf2446de6 // vadd.f32 q11, q10, q11 .long 0xf20eade6 // vadd.f32 q5, q15, q11 .long 0xf2606dea // vsub.f32 q11, q8, q13 .long 0xf24eedc4 // vadd.f32 q15, q15, q2 .long 0xf3068dd6 // vmul.f32 q4, q11, q3 .long 0xf3f96544 // vceq.f32 q11, q2, #0 .long 0xf35e61da // vbsl q11, q15, q5 .long 0xeec95aa3 // vdiv.f32 s11, s19, s7 .long 0xee895a03 // vdiv.f32 s10, s18, s6 .long 0xeec84aa2 // vdiv.f32 s9, s17, s5 .long 0xee884a02 // vdiv.f32 s8, s16, s4 .long 0xf260efc4 // vmin.f32 q15, q8, q2 .long 0xf30c8dd2 // vmul.f32 q4, q14, q1 .long 0xf3084dfa // vmul.f32 q2, q12, q13 .long 0xf34ccdd0 // vmul.f32 q14, q14, q0 .long 0xf260edee // vsub.f32 q15, q8, q15 .long 0xf34eedd6 // vmul.f32 q15, q15, q3 .long 0xf248ed6e // vadd.f32 q15, q4, q15 .long 0xf204ad6e // vadd.f32 q5, q2, q15 .long 0xf3f9e542 // vceq.f32 q15, q1, #0 .long 0xf2044d42 // vadd.f32 q2, q2, q1 .long 0xf354e15a // vbsl q15, q2, q5 .long 0xf422aaef // vld1.64 {d10-d11}, [r2 :128] .long 0xf2202dca // vsub.f32 q1, q8, q5 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3022d56 // vmul.f32 q1, q1, q3 .long 0xeec35aa1 // vdiv.f32 s11, s7, s3 .long 0xee835a01 // vdiv.f32 s10, s6, s2 .long 0xeec24aa0 // vdiv.f32 s9, s5, s1 .long 0xee824a00 // vdiv.f32 s8, s4, s0 .long 0xf2202fc4 // vmin.f32 q1, q8, q2 .long 0xf3084dda // vmul.f32 q2, q12, q5 .long 0xf2202dc2 // vsub.f32 q1, q8, q1 .long 0xf3022d56 // vmul.f32 q1, q1, q3 .long 0xf2006cf8 // vfma.f32 q3, q8, q12 .long 0xf20c2dc2 // vadd.f32 q1, q14, q1 .long 0xf2042d42 // vadd.f32 q1, q2, q1 .long 0xf2044d40 // vadd.f32 q2, q2, q0 .long 0xf20a0e60 // vceq.f32 q0, q5, q8 .long 0xf314c152 // vbsl q6, q2, q1 .long 0xf2024ee0 // vceq.f32 q2, q9, q8 .long 0xf2442de2 // vadd.f32 q9, q10, q9 .long 0xf20a2ee0 // vceq.f32 q1, q13, q8 .long 0xf2484d6a // vadd.f32 q10, q4, q13 .long 0xf24a0d6c // vadd.f32 q8, q5, q14 .long 0xf31241f6 // vbsl q2, q9, q11 .long 0xf31421fe // vbsl q1, q10, q15 .long 0xf31001dc // vbsl q0, q8, q6 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff12 // bx r2 HIDDEN _sk_colordodge_vfp4 .globl _sk_colordodge_vfp4 FUNCTION(_sk_colordodge_vfp4) _sk_colordodge_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xe2802030 // add r2, r0, #48 .long 0xf226ad44 // vsub.f32 q5, q3, q2 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf300cdd6 // vmul.f32 q6, q8, q3 .long 0xf2c74f50 // vmov.f32 q10, #1 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf264ade2 // vsub.f32 q13, q10, q9 .long 0xf2646dc6 // vsub.f32 q11, q10, q3 .long 0xeecd9aab // vdiv.f32 s19, s27, s23 .long 0xee8d9a0b // vdiv.f32 s18, s26, s22 .long 0xeecc8aaa // vdiv.f32 s17, s25, s21 .long 0xee8c8a0a // vdiv.f32 s16, s24, s20 .long 0xf262cfc8 // vmin.f32 q14, q9, q4 .long 0xf34a8dd4 // vmul.f32 q12, q13, q2 .long 0xf34c4dd6 // vmul.f32 q10, q14, q3 .long 0xf346cdf0 // vmul.f32 q14, q11, q8 .long 0xf248ede4 // vadd.f32 q15, q12, q10 .long 0xf20c8dc4 // vadd.f32 q4, q14, q2 .long 0xf2444e46 // vceq.f32 q10, q2, q3 .long 0xf24ccdee // vadd.f32 q14, q14, q15 .long 0xf2264d42 // vsub.f32 q2, q3, q1 .long 0xf358417c // vbsl q10, q4, q14 .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf30c8dd6 // vmul.f32 q4, q14, q3 .long 0xeec9baa5 // vdiv.f32 s23, s19, s11 .long 0xee89ba05 // vdiv.f32 s22, s18, s10 .long 0xeec8aaa4 // vdiv.f32 s21, s17, s9 .long 0xee88aa04 // vdiv.f32 s20, s16, s8 .long 0xf262efca // vmin.f32 q15, q9, q5 .long 0xf30a4dd2 // vmul.f32 q2, q13, q1 .long 0xf3068dfc // vmul.f32 q4, q11, q14 .long 0xf34aadd0 // vmul.f32 q13, q13, q0 .long 0xf34eedd6 // vmul.f32 q15, q15, q3 .long 0xf244ed6e // vadd.f32 q15, q2, q15 .long 0xf208ad6e // vadd.f32 q5, q4, q15 .long 0xf242ee46 // vceq.f32 q15, q1, q3 .long 0xf2082d42 // vadd.f32 q1, q4, q1 .long 0xf2268d40 // vsub.f32 q4, q3, q0 .long 0xf352e15a // vbsl q15, q1, q5 .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128] .long 0xf302ad56 // vmul.f32 q5, q1, q3 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xeecbdaa9 // vdiv.f32 s27, s23, s19 .long 0xee8bda09 // vdiv.f32 s26, s22, s18 .long 0xeecacaa8 // vdiv.f32 s25, s21, s17 .long 0xee8aca08 // vdiv.f32 s24, s20, s16 .long 0xf2228fcc // vmin.f32 q4, q9, q6 .long 0xf306add2 // vmul.f32 q5, q11, q1 .long 0xf200ce46 // vceq.f32 q6, q0, q3 .long 0xf3088d56 // vmul.f32 q4, q4, q3 .long 0xf2026cf6 // vfma.f32 q3, q9, q11 .long 0xf20a0d40 // vadd.f32 q0, q5, q0 .long 0xf20a8dc8 // vadd.f32 q4, q13, q4 .long 0xf2482de0 // vadd.f32 q9, q12, q8 .long 0xf2446d6c // vadd.f32 q11, q2, q14 .long 0xf3b94560 // vceq.f32 q2, q8, #0 .long 0xf2428d6a // vadd.f32 q12, q1, q13 .long 0xf20a8d48 // vadd.f32 q4, q5, q4 .long 0xf310c158 // vbsl q6, q0, q4 .long 0xf3b90542 // vceq.f32 q0, q1, #0 .long 0xf3b9256c // vceq.f32 q1, q14, #0 .long 0xf31801dc // vbsl q0, q12, q6 .long 0xf31621fe // vbsl q1, q11, q15 .long 0xf31241f4 // vbsl q2, q9, q10 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff12 // bx r2 HIDDEN _sk_hardlight_vfp4 .globl _sk_hardlight_vfp4 FUNCTION(_sk_hardlight_vfp4) _sk_hardlight_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xf2c74f50 // vmov.f32 q10, #1 .long 0xe2802040 // add r2, r0, #64 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf264ade2 // vsub.f32 q13, q10, q9 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2640dc6 // vsub.f32 q8, q10, q3 .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf266ed42 // vsub.f32 q15, q3, q1 .long 0xf34a8dd4 // vmul.f32 q12, q13, q2 .long 0xf3404df6 // vmul.f32 q10, q8, q11 .long 0xf30cadd2 // vmul.f32 q5, q14, q1 .long 0xf2484de4 // vadd.f32 q10, q12, q10 .long 0xf2628dec // vsub.f32 q12, q9, q14 .long 0xf340cdfc // vmul.f32 q14, q8, q14 .long 0xf20aad4a // vadd.f32 q5, q5, q5 .long 0xf34e8df8 // vmul.f32 q12, q15, q12 .long 0xf342edd6 // vmul.f32 q15, q9, q3 .long 0xf2488de8 // vadd.f32 q12, q12, q12 .long 0xf22e8de8 // vsub.f32 q4, q15, q12 .long 0xf2428d42 // vadd.f32 q12, q1, q1 .long 0xf30a2dd2 // vmul.f32 q1, q13, q1 .long 0xf34aadd0 // vmul.f32 q13, q13, q0 .long 0xf3468e68 // vcge.f32 q12, q3, q12 .long 0xf242cd6c // vadd.f32 q14, q1, q14 .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128] .long 0xf302cd50 // vmul.f32 q6, q1, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf35a8158 // vbsl q12, q5, q4 .long 0xf2228dc2 // vsub.f32 q4, q9, q1 .long 0xf226ad40 // vsub.f32 q5, q3, q0 .long 0xf3002dd2 // vmul.f32 q1, q8, q1 .long 0xf20ccd4c // vadd.f32 q6, q6, q6 .long 0xf30a8d58 // vmul.f32 q4, q5, q4 .long 0xf200ad40 // vadd.f32 q5, q0, q0 .long 0xf2220de6 // vsub.f32 q0, q9, q11 .long 0xf242ad6a // vadd.f32 q13, q1, q13 .long 0xf2262d44 // vsub.f32 q1, q3, q2 .long 0xf2088d48 // vadd.f32 q4, q4, q4 .long 0xf3466dd4 // vmul.f32 q11, q11, q2 .long 0xf3020d50 // vmul.f32 q0, q1, q0 .long 0xf306ae4a // vcge.f32 q5, q3, q5 .long 0xf22e8dc8 // vsub.f32 q4, q15, q4 .long 0xf2000d40 // vadd.f32 q0, q0, q0 .long 0xf31ca158 // vbsl q5, q6, q4 .long 0xf2466de6 // vadd.f32 q11, q11, q11 .long 0xf26eedc0 // vsub.f32 q15, q15, q0 .long 0xf2040d44 // vadd.f32 q0, q2, q2 .long 0xf2082dec // vadd.f32 q1, q12, q14 .long 0xf3068e40 // vcge.f32 q4, q3, q0 .long 0xf2026cf0 // vfma.f32 q3, q9, q8 .long 0xf20a0d6a // vadd.f32 q0, q5, q13 .long 0xf31681fe // vbsl q4, q11, q15 .long 0xf2084d64 // vadd.f32 q2, q4, q10 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff12 // bx r2 HIDDEN _sk_overlay_vfp4 .globl _sk_overlay_vfp4 FUNCTION(_sk_overlay_vfp4) _sk_overlay_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xf2c74f50 // vmov.f32 q10, #1 .long 0xe2802040 // add r2, r0, #64 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf264ade2 // vsub.f32 q13, q10, q9 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2640dc6 // vsub.f32 q8, q10, q3 .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf266ed42 // vsub.f32 q15, q3, q1 .long 0xf34a8dd4 // vmul.f32 q12, q13, q2 .long 0xf3404df6 // vmul.f32 q10, q8, q11 .long 0xf30cadd2 // vmul.f32 q5, q14, q1 .long 0xf30a2dd2 // vmul.f32 q1, q13, q1 .long 0xf34aadd0 // vmul.f32 q13, q13, q0 .long 0xf2484de4 // vadd.f32 q10, q12, q10 .long 0xf2628dec // vsub.f32 q12, q9, q14 .long 0xf20aad4a // vadd.f32 q5, q5, q5 .long 0xf34e8df8 // vmul.f32 q12, q15, q12 .long 0xf342edd6 // vmul.f32 q15, q9, q3 .long 0xf2488de8 // vadd.f32 q12, q12, q12 .long 0xf22e8de8 // vsub.f32 q4, q15, q12 .long 0xf24c8dec // vadd.f32 q12, q14, q14 .long 0xf340cdfc // vmul.f32 q14, q8, q14 .long 0xf3428ee8 // vcge.f32 q12, q9, q12 .long 0xf242cd6c // vadd.f32 q14, q1, q14 .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128] .long 0xf302cd50 // vmul.f32 q6, q1, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf35a8158 // vbsl q12, q5, q4 .long 0xf2228dc2 // vsub.f32 q4, q9, q1 .long 0xf226ad40 // vsub.f32 q5, q3, q0 .long 0xf2220de6 // vsub.f32 q0, q9, q11 .long 0xf20ccd4c // vadd.f32 q6, q6, q6 .long 0xf30a8d58 // vmul.f32 q4, q5, q4 .long 0xf202ad42 // vadd.f32 q5, q1, q1 .long 0xf3002dd2 // vmul.f32 q1, q8, q1 .long 0xf2088d48 // vadd.f32 q4, q4, q4 .long 0xf302aeca // vcge.f32 q5, q9, q5 .long 0xf242ad6a // vadd.f32 q13, q1, q13 .long 0xf2262d44 // vsub.f32 q1, q3, q2 .long 0xf22e8dc8 // vsub.f32 q4, q15, q4 .long 0xf31ca158 // vbsl q5, q6, q4 .long 0xf3020d50 // vmul.f32 q0, q1, q0 .long 0xf2026cf0 // vfma.f32 q3, q9, q8 .long 0xf2082dec // vadd.f32 q1, q12, q14 .long 0xf2000d40 // vadd.f32 q0, q0, q0 .long 0xf26eedc0 // vsub.f32 q15, q15, q0 .long 0xf2060de6 // vadd.f32 q0, q11, q11 .long 0xf3466dd4 // vmul.f32 q11, q11, q2 .long 0xf3028ec0 // vcge.f32 q4, q9, q0 .long 0xf2466de6 // vadd.f32 q11, q11, q11 .long 0xf20a0d6a // vadd.f32 q0, q5, q13 .long 0xf31681fe // vbsl q4, q11, q15 .long 0xf2084d64 // vadd.f32 q2, q4, q10 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff12 // bx r2 HIDDEN _sk_softlight_vfp4 .globl _sk_softlight_vfp4 FUNCTION(_sk_softlight_vfp4) _sk_softlight_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd028 // sub sp, sp, #40 .long 0xf2624152 // vorr q10, q1, q1 .long 0xe28d3010 // add r3, sp, #16 .long 0xe2802040 // add r2, r0, #64 .long 0xf2c06050 // vmov.i32 q11, #0 .long 0xec834b04 // vstmia r3, {d4-d5} .long 0xf3872f50 // vmov.f32 q1, #-1 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xeccd4b04 // vstmia sp, {d20-d21} .long 0xf4228aef // vld1.64 {d8-d9}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf422aaef // vld1.64 {d10-d11}, [r2 :128] .long 0xf3f90448 // vcgt.f32 q8, q4, #0 .long 0xf26021f0 // vorr q9, q8, q8 .long 0xe2802010 // add r2, r0, #16 .long 0xeecbdaa9 // vdiv.f32 s27, s23, s19 .long 0xee8bda09 // vdiv.f32 s26, s22, s18 .long 0xeecacaa8 // vdiv.f32 s25, s21, s17 .long 0xee8aca08 // vdiv.f32 s24, s20, s16 .long 0xf35c2176 // vbsl q9, q6, q11 .long 0xf3fb65e2 // vrsqrte.f32 q11, q9 .long 0xf242ade2 // vadd.f32 q13, q9, q9 .long 0xf242cdc2 // vadd.f32 q14, q9, q1 .long 0xf3468df6 // vmul.f32 q12, q11, q11 .long 0xf24aadea // vadd.f32 q13, q13, q13 .long 0xf2628ff8 // vrsqrts.f32 q12, q9, q12 .long 0xf3466df8 // vmul.f32 q11, q11, q12 .long 0xf3fb8566 // vrecpe.f32 q12, q11 .long 0xf2466ff8 // vrecps.f32 q11, q11, q12 .long 0xf3486df6 // vmul.f32 q11, q12, q11 .long 0xf34a8dfa // vmul.f32 q12, q13, q13 .long 0xf2666de2 // vsub.f32 q11, q11, q9 .long 0xf24aade8 // vadd.f32 q13, q13, q12 .long 0xf34ccdfa // vmul.f32 q14, q14, q13 .long 0xf2c1af5c // vmov.f32 q13, #7 .long 0xf342edfa // vmul.f32 q15, q9, q13 .long 0xf24ecdec // vadd.f32 q14, q15, q14 .long 0xf24aed4a // vadd.f32 q15, q5, q5 .long 0xf24eedee // vadd.f32 q15, q15, q15 .long 0xf348ee6e // vcge.f32 q15, q4, q15 .long 0xf35ce1f6 // vbsl q15, q14, q11 .long 0xf244cde4 // vadd.f32 q14, q10, q10 .long 0xf22ccdc6 // vsub.f32 q6, q14, q3 .long 0xf34c6d58 // vmul.f32 q11, q6, q4 .long 0xf3466dfe // vmul.f32 q11, q11, q15 .long 0xf34aed56 // vmul.f32 q15, q5, q3 .long 0xf24eede6 // vadd.f32 q15, q15, q11 .long 0xf2c76f50 // vmov.f32 q11, #1 .long 0xf2662de2 // vsub.f32 q9, q11, q9 .long 0xf34c2d72 // vmul.f32 q9, q6, q9 .long 0xf2422dc6 // vadd.f32 q9, q9, q3 .long 0xf30acd72 // vmul.f32 q6, q5, q9 .long 0xf3462e6c // vcge.f32 q9, q3, q14 .long 0xf260c1f0 // vorr q14, q8, q8 .long 0xf35c217e // vbsl q9, q6, q15 .long 0xf422caef // vld1.64 {d12-d13}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xeecdfaa9 // vdiv.f32 s31, s27, s19 .long 0xee8dfa09 // vdiv.f32 s30, s26, s18 .long 0xeecceaa8 // vdiv.f32 s29, s25, s17 .long 0xee8cea08 // vdiv.f32 s28, s24, s16 .long 0xf35ec154 // vbsl q14, q7, q2 .long 0xf2204150 // vorr q2, q0, q0 .long 0xf3fbe5ec // vrsqrte.f32 q15, q14 .long 0xf30eedfe // vmul.f32 q7, q15, q15 .long 0xf22cefde // vrsqrts.f32 q7, q14, q7 .long 0xf34eedde // vmul.f32 q15, q15, q7 .long 0xf3bbe56e // vrecpe.f32 q7, q15 .long 0xf24eefde // vrecps.f32 q15, q15, q7 .long 0xf34eed7e // vmul.f32 q15, q7, q15 .long 0xf20cedec // vadd.f32 q7, q14, q14 .long 0xf26eedec // vsub.f32 q15, q15, q14 .long 0xf20eed4e // vadd.f32 q7, q7, q7 .long 0xf34e4d5e // vmul.f32 q10, q7, q7 .long 0xf24e4d64 // vadd.f32 q10, q7, q10 .long 0xf20cedc2 // vadd.f32 q7, q14, q1 .long 0xf34e4d74 // vmul.f32 q10, q7, q10 .long 0xf30cedfa // vmul.f32 q7, q14, q13 .long 0xf266cdec // vsub.f32 q14, q11, q14 .long 0xf24e4d64 // vadd.f32 q10, q7, q10 .long 0xf20ced4c // vadd.f32 q7, q6, q6 .long 0xf20eed4e // vadd.f32 q7, q7, q7 .long 0xf308ee4e // vcge.f32 q7, q4, q7 .long 0xf314e1fe // vbsl q7, q10, q15 .long 0xf2404d40 // vadd.f32 q10, q0, q0 .long 0xf264edc6 // vsub.f32 q15, q10, q3 .long 0xf34e8dd8 // vmul.f32 q12, q15, q4 .long 0xf34ecdfc // vmul.f32 q14, q15, q14 .long 0xf3488dde // vmul.f32 q12, q12, q7 .long 0xf30ced56 // vmul.f32 q7, q6, q3 .long 0xf24ccdc6 // vadd.f32 q14, q14, q3 .long 0xf24e8d68 // vadd.f32 q12, q7, q12 .long 0xf422eaef // vld1.64 {d14-d15}, [r2 :128] .long 0xe28d2010 // add r2, sp, #16 .long 0xeecf1aa9 // vdiv.f32 s3, s31, s19 .long 0xee8f1a09 // vdiv.f32 s2, s30, s18 .long 0xeece0aa8 // vdiv.f32 s1, s29, s17 .long 0xee8e0a08 // vdiv.f32 s0, s28, s16 .long 0xf34ced7c // vmul.f32 q15, q6, q14 .long 0xf346ce64 // vcge.f32 q14, q3, q10 .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xf3500174 // vbsl q8, q0, q10 .long 0xec920b04 // vldmia r2, {d0-d1} .long 0xf35ec1f8 // vbsl q14, q15, q12 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3fb45e0 // vrsqrte.f32 q10, q8 .long 0xf340adfa // vmul.f32 q13, q8, q13 .long 0xf3448df4 // vmul.f32 q12, q10, q10 .long 0xf2608ff8 // vrsqrts.f32 q12, q8, q12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf3fb8564 // vrecpe.f32 q12, q10 .long 0xf2444ff8 // vrecps.f32 q10, q10, q12 .long 0xf3484df4 // vmul.f32 q10, q12, q10 .long 0xf2408de0 // vadd.f32 q12, q8, q8 .long 0xf2644de0 // vsub.f32 q10, q10, q8 .long 0xf2488de8 // vadd.f32 q12, q12, q12 .long 0xf348edf8 // vmul.f32 q15, q12, q12 .long 0xf2488dee // vadd.f32 q12, q12, q15 .long 0xf240edc2 // vadd.f32 q15, q8, q1 .long 0xec9d2b04 // vldmia sp, {d2-d3} .long 0xf2660de0 // vsub.f32 q8, q11, q8 .long 0xf34e8df8 // vmul.f32 q12, q15, q12 .long 0xf24a8de8 // vadd.f32 q12, q13, q12 .long 0xf24ead4e // vadd.f32 q13, q7, q7 .long 0xf24aadea // vadd.f32 q13, q13, q13 .long 0xf348ae6a // vcge.f32 q13, q4, q13 .long 0xf358a1f4 // vbsl q13, q12, q10 .long 0xf2404d40 // vadd.f32 q10, q0, q0 .long 0xf2648dc6 // vsub.f32 q12, q10, q3 .long 0xf3464e64 // vcge.f32 q10, q3, q10 .long 0xf348edd8 // vmul.f32 q15, q12, q4 .long 0xf3480df0 // vmul.f32 q8, q12, q8 .long 0xf2668dc6 // vsub.f32 q12, q11, q3 .long 0xf2666dc8 // vsub.f32 q11, q11, q4 .long 0xf34eadfa // vmul.f32 q13, q15, q13 .long 0xf34eed56 // vmul.f32 q15, q7, q3 .long 0xf2400dc6 // vadd.f32 q8, q8, q3 .long 0xf3060dd0 // vmul.f32 q0, q11, q0 .long 0xf3062dd2 // vmul.f32 q1, q11, q1 .long 0xf24eadea // vadd.f32 q13, q15, q13 .long 0xf348edde // vmul.f32 q15, q12, q7 .long 0xf3466dd4 // vmul.f32 q11, q11, q2 .long 0xf34e0d70 // vmul.f32 q8, q7, q8 .long 0xf2086c78 // vfma.f32 q3, q4, q12 .long 0xf240ed6e // vadd.f32 q15, q0, q15 .long 0xf3080dda // vmul.f32 q0, q12, q5 .long 0xf35041fa // vbsl q10, q8, q13 .long 0xf20e4de4 // vadd.f32 q2, q15, q10 .long 0xf2022d40 // vadd.f32 q1, q1, q0 .long 0xf3080ddc // vmul.f32 q0, q12, q6 .long 0xf2022d62 // vadd.f32 q1, q1, q9 .long 0xf2406d66 // vadd.f32 q11, q0, q11 .long 0xf2060dec // vadd.f32 q0, q11, q14 .long 0xe28dd028 // add sp, sp, #40 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} HIDDEN _sk_hue_vfp4 .globl _sk_hue_vfp4 FUNCTION(_sk_hue_vfp4) _sk_hue_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd068 // sub sp, sp, #104 .long 0xf3440d56 // vmul.f32 q8, q2, q3 .long 0xe28d3050 // add r3, sp, #80 .long 0xf342ed56 // vmul.f32 q15, q1, q3 .long 0xe2802030 // add r2, r0, #48 .long 0xf3404d56 // vmul.f32 q10, q0, q3 .long 0xec834b04 // vstmia r3, {d4-d5} .long 0xe28d3030 // add r3, sp, #48 .long 0xec832b04 // vstmia r3, {d2-d3} .long 0xe28d3040 // add r3, sp, #64 .long 0xf26e2fe0 // vmin.f32 q9, q15, q8 .long 0xec830b04 // vstmia r3, {d0-d1} .long 0xe28d3020 // add r3, sp, #32 .long 0xf24e6fe0 // vmax.f32 q11, q15, q8 .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf2642fe2 // vmin.f32 q9, q10, q9 .long 0xf2446fe6 // vmax.f32 q11, q10, q11 .long 0xf2648de2 // vsub.f32 q12, q10, q9 .long 0xf2260de2 // vsub.f32 q0, q11, q9 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf266afc2 // vmin.f32 q13, q11, q1 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xf246cfc2 // vmax.f32 q14, q11, q1 .long 0xec832b04 // vstmia r3, {d2-d3} .long 0xe28d3010 // add r3, sp, #16 .long 0xf26eede2 // vsub.f32 q15, q15, q9 .long 0xecc34b04 // vstmia r3, {d20-d21} .long 0xe28f2f9d // add r2, pc, #628 .long 0xf264afea // vmin.f32 q13, q10, q13 .long 0xe28d3030 // add r3, sp, #48 .long 0xf244cfec // vmax.f32 q14, q10, q14 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf26cadea // vsub.f32 q13, q14, q13 .long 0xf34acdd6 // vmul.f32 q14, q13, q3 .long 0xf30c4df8 // vmul.f32 q2, q14, q12 .long 0xf3f98540 // vceq.f32 q12, q0, #0 .long 0xf268a1f8 // vorr q13, q12, q12 .long 0xeec59aa1 // vdiv.f32 s19, s11, s3 .long 0xee859a01 // vdiv.f32 s18, s10, s2 .long 0xeec48aa0 // vdiv.f32 s17, s9, s1 .long 0xee848a00 // vdiv.f32 s16, s8, s0 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf354a158 // vbsl q13, q2, q4 .long 0xf30c8dfe // vmul.f32 q4, q14, q15 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf268e1f8 // vorr q15, q12, q12 .long 0xeec9baa1 // vdiv.f32 s23, s19, s3 .long 0xee89ba01 // vdiv.f32 s22, s18, s2 .long 0xeec8aaa0 // vdiv.f32 s21, s17, s1 .long 0xee88aa00 // vdiv.f32 s20, s16, s0 .long 0xf4228acf // vld1.64 {d8-d9}, [r2] .long 0xf354e15a // vbsl q15, q2, q5 .long 0xe28f2e22 // add r2, pc, #544 .long 0xf422aacf // vld1.64 {d10-d11}, [r2] .long 0xe28f2f8a // add r2, pc, #552 .long 0xf30ecdd8 // vmul.f32 q6, q15, q4 .long 0xf30aedda // vmul.f32 q7, q13, q5 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe2802040 // add r2, r0, #64 .long 0xf20ecd4c // vadd.f32 q6, q7, q6 .long 0xf30cedf0 // vmul.f32 q7, q14, q8 .long 0xf346cdd8 // vmul.f32 q14, q11, q4 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xeecf5aa1 // vdiv.f32 s11, s31, s3 .long 0xee8f5a01 // vdiv.f32 s10, s30, s2 .long 0xeece4aa0 // vdiv.f32 s9, s29, s1 .long 0xee8e4a00 // vdiv.f32 s8, s28, s0 .long 0xf3040dda // vmul.f32 q0, q10, q5 .long 0xf35081d4 // vbsl q12, q8, q2 .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xf3480df2 // vmul.f32 q8, q12, q9 .long 0xf240cd6c // vadd.f32 q14, q0, q14 .long 0xf3020d72 // vmul.f32 q0, q1, q9 .long 0xf24c0d60 // vadd.f32 q8, q6, q8 .long 0xf24ccdc0 // vadd.f32 q14, q14, q0 .long 0xf34ccdd6 // vmul.f32 q14, q14, q3 .long 0xf26ccde0 // vsub.f32 q14, q14, q8 .long 0xf20e0dec // vadd.f32 q0, q15, q14 .long 0xf24a0dec // vadd.f32 q8, q13, q14 .long 0xf248cdec // vadd.f32 q14, q12, q14 .long 0xf340ed58 // vmul.f32 q15, q0, q4 .long 0xf340adda // vmul.f32 q13, q8, q5 .long 0xf34c2df2 // vmul.f32 q9, q14, q9 .long 0xf24aadee // vadd.f32 q13, q13, q15 .long 0xf462eaef // vld1.64 {d30-d31}, [r2 :128] .long 0xf2428dea // vadd.f32 q12, q9, q13 .long 0xf2602d68 // vsub.f32 q9, q0, q12 .long 0xf3088df2 // vmul.f32 q4, q12, q9 .long 0xf2602f6c // vmin.f32 q9, q0, q14 .long 0xf2602fe2 // vmin.f32 q9, q8, q9 .long 0xf228ade2 // vsub.f32 q5, q12, q9 .long 0xeec95aab // vdiv.f32 s11, s19, s23 .long 0xee895a0b // vdiv.f32 s10, s18, s22 .long 0xeec84aaa // vdiv.f32 s9, s17, s21 .long 0xee884a0a // vdiv.f32 s8, s16, s20 .long 0xf3b984e2 // vcge.f32 q4, q9, #0 .long 0xf248adc4 // vadd.f32 q13, q12, q2 .long 0xf2284158 // vorr q2, q4, q4 .long 0xf310417a // vbsl q2, q0, q13 .long 0xf34eadd6 // vmul.f32 q13, q15, q3 .long 0xf2000f6c // vmax.f32 q0, q0, q14 .long 0xf224cd68 // vsub.f32 q6, q2, q12 .long 0xf26a2de8 // vsub.f32 q9, q13, q12 .long 0xf200efc0 // vmax.f32 q7, q8, q0 .long 0xf302cddc // vmul.f32 q6, q9, q6 .long 0xf22e0d68 // vsub.f32 q0, q7, q12 .long 0xf32eee6a // vcgt.f32 q7, q7, q13 .long 0xeecd3aa1 // vdiv.f32 s7, s27, s3 .long 0xee8d3a01 // vdiv.f32 s6, s26, s2 .long 0xeecc2aa0 // vdiv.f32 s5, s25, s1 .long 0xee8c2a00 // vdiv.f32 s4, s24, s0 .long 0xf2082dc2 // vadd.f32 q1, q12, q1 .long 0xf22ec15e // vorr q6, q7, q7 .long 0xf312c154 // vbsl q6, q1, q2 .long 0xf20c2f64 // vmax.f32 q1, q6, q10 .long 0xec8d2b04 // vstmia sp, {d2-d3} .long 0xf2202de8 // vsub.f32 q1, q8, q12 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3082dd2 // vmul.f32 q1, q12, q1 .long 0xeec35aab // vdiv.f32 s11, s7, s23 .long 0xee835a0b // vdiv.f32 s10, s6, s22 .long 0xeec24aaa // vdiv.f32 s9, s5, s21 .long 0xee824a0a // vdiv.f32 s8, s4, s20 .long 0xf2082dc4 // vadd.f32 q1, q12, q2 .long 0xf2284158 // vorr q2, q4, q4 .long 0xf31041d2 // vbsl q2, q8, q1 .long 0xf2640d68 // vsub.f32 q8, q2, q12 .long 0xf3022df0 // vmul.f32 q1, q9, q8 .long 0xeec3daa1 // vdiv.f32 s27, s7, s3 .long 0xee83da01 // vdiv.f32 s26, s6, s2 .long 0xeec2caa0 // vdiv.f32 s25, s5, s1 .long 0xee82ca00 // vdiv.f32 s24, s4, s0 .long 0xf2480dcc // vadd.f32 q8, q12, q6 .long 0xf22e215e // vorr q1, q7, q7 .long 0xf280c050 // vmov.i32 q6, #0 .long 0xf31021d4 // vbsl q1, q8, q2 .long 0xf2420f64 // vmax.f32 q8, q1, q10 .long 0xf22c2de8 // vsub.f32 q1, q14, q12 .long 0xf3082dd2 // vmul.f32 q1, q12, q1 .long 0xeec35aab // vdiv.f32 s11, s7, s23 .long 0xee835a0b // vdiv.f32 s10, s6, s22 .long 0xeec24aaa // vdiv.f32 s9, s5, s21 .long 0xee824a0a // vdiv.f32 s8, s4, s20 .long 0xf2082dc4 // vadd.f32 q1, q12, q2 .long 0xf31c81d2 // vbsl q4, q14, q1 .long 0xf268cd68 // vsub.f32 q14, q4, q12 .long 0xf3022dfc // vmul.f32 q1, q9, q14 .long 0xecd3cb04 // vldmia r3, {d28-d29} .long 0xe28d3010 // add r3, sp, #16 .long 0xeec35aa1 // vdiv.f32 s11, s7, s3 .long 0xee835a01 // vdiv.f32 s10, s6, s2 .long 0xeec24aa0 // vdiv.f32 s9, s5, s1 .long 0xee824a00 // vdiv.f32 s8, s4, s0 .long 0xf2482dc4 // vadd.f32 q9, q12, q2 .long 0xf312e1d8 // vbsl q7, q9, q4 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2628dc6 // vsub.f32 q12, q9, q3 .long 0xf2622dee // vsub.f32 q9, q9, q15 .long 0xf3484df6 // vmul.f32 q10, q12, q11 .long 0xecd36b04 // vldmia r3, {d22-d23} .long 0xe28d3040 // add r3, sp, #64 .long 0xf342cdfc // vmul.f32 q14, q9, q14 .long 0xf3486df6 // vmul.f32 q11, q12, q11 .long 0xf2444dec // vadd.f32 q10, q10, q14 .long 0xecd3cb04 // vldmia r3, {d28-d29} .long 0xe28d3020 // add r3, sp, #32 .long 0xf342cdfc // vmul.f32 q14, q9, q14 .long 0xf2466dec // vadd.f32 q11, q11, q14 .long 0xf24ecdc6 // vadd.f32 q14, q15, q3 .long 0xecd3eb04 // vldmia r3, {d30-d31} .long 0xe28d3050 // add r3, sp, #80 .long 0xf3488dfe // vmul.f32 q12, q12, q15 .long 0xecd3eb04 // vldmia r3, {d30-d31} .long 0xf2060de0 // vadd.f32 q0, q11, q8 .long 0xf3422dfe // vmul.f32 q9, q9, q15 .long 0xecdd0b04 // vldmia sp, {d16-d17} .long 0xf22c6dea // vsub.f32 q3, q14, q13 .long 0xf2042de0 // vadd.f32 q1, q10, q8 .long 0xf2482de2 // vadd.f32 q9, q12, q9 .long 0xf24e8f4c // vmax.f32 q12, q7, q6 .long 0xf2024de8 // vadd.f32 q2, q9, q12 .long 0xe28dd068 // add sp, sp, #104 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae HIDDEN _sk_saturation_vfp4 .globl _sk_saturation_vfp4 FUNCTION(_sk_saturation_vfp4) _sk_saturation_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd068 // sub sp, sp, #104 .long 0xe28d3010 // add r3, sp, #16 .long 0xf2604150 // vorr q10, q0, q0 .long 0xe2802030 // add r2, r0, #48 .long 0xec832b04 // vstmia r3, {d2-d3} .long 0xe28d3020 // add r3, sp, #32 .long 0xecc34b04 // vstmia r3, {d20-d21} .long 0xe28d3050 // add r3, sp, #80 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xecc30b04 // vstmia r3, {d16-d17} .long 0xf3400dd6 // vmul.f32 q8, q8, q3 .long 0xe28d3040 // add r3, sp, #64 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf3028dd6 // vmul.f32 q4, q9, q3 .long 0xecc32b04 // vstmia r3, {d18-d19} .long 0xe28d3030 // add r3, sp, #48 .long 0xf4628aef // vld1.64 {d24-d25}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf3482dd6 // vmul.f32 q9, q12, q3 .long 0xf2686f60 // vmin.f32 q11, q4, q8 .long 0xeccd8b04 // vstmia sp, {d24-d25} .long 0xf248cf60 // vmax.f32 q14, q4, q8 .long 0xec834b04 // vstmia r3, {d4-d5} .long 0xe28d3010 // add r3, sp, #16 .long 0xf262afe6 // vmin.f32 q13, q9, q11 .long 0xf2426fec // vmax.f32 q11, q9, q14 .long 0xf242cf44 // vmax.f32 q14, q1, q2 .long 0xf2622dea // vsub.f32 q9, q9, q13 .long 0xf2260dea // vsub.f32 q0, q11, q13 .long 0xf2626f44 // vmin.f32 q11, q1, q2 .long 0xf244cfec // vmax.f32 q14, q10, q14 .long 0xf2288d6a // vsub.f32 q4, q4, q13 .long 0xf2646fe6 // vmin.f32 q11, q10, q11 .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xf2600dea // vsub.f32 q8, q8, q13 .long 0xf26ccde6 // vsub.f32 q14, q14, q11 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe28f2f97 // add r2, pc, #604 .long 0xf34cedf6 // vmul.f32 q15, q14, q11 .long 0xf30e2df2 // vmul.f32 q1, q15, q9 .long 0xf3f92540 // vceq.f32 q9, q0, #0 .long 0xf30e8dd8 // vmul.f32 q4, q15, q4 .long 0xf262c1f2 // vorr q14, q9, q9 .long 0xeec3baa1 // vdiv.f32 s23, s7, s3 .long 0xee83ba01 // vdiv.f32 s22, s6, s2 .long 0xeec2aaa0 // vdiv.f32 s21, s5, s1 .long 0xee82aa00 // vdiv.f32 s20, s4, s0 .long 0xf354c1da // vbsl q14, q10, q5 .long 0xeec9baa1 // vdiv.f32 s23, s19, s3 .long 0xee89ba01 // vdiv.f32 s22, s18, s2 .long 0xeec8aaa0 // vdiv.f32 s21, s17, s1 .long 0xee88aa00 // vdiv.f32 s20, s16, s0 .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xf22281f2 // vorr q4, q9, q9 .long 0xf31481da // vbsl q4, q10, q5 .long 0xf422aacf // vld1.64 {d10-d11}, [r2] .long 0xe28f2e22 // add r2, pc, #544 .long 0xf422cacf // vld1.64 {d12-d13}, [r2] .long 0xe28f2f8a // add r2, pc, #552 .long 0xf308ed5a // vmul.f32 q7, q4, q5 .long 0xf30c4ddc // vmul.f32 q2, q14, q6 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xe28d2040 // add r2, sp, #64 .long 0xf2044d4e // vadd.f32 q2, q2, q7 .long 0xf30eedf0 // vmul.f32 q7, q15, q8 .long 0xeecf3aa1 // vdiv.f32 s7, s31, s3 .long 0xee8f3a01 // vdiv.f32 s6, s30, s2 .long 0xeece2aa0 // vdiv.f32 s5, s29, s1 .long 0xee8e2a00 // vdiv.f32 s4, s28, s0 .long 0xf35421d2 // vbsl q9, q10, q1 .long 0xecd24b04 // vldmia r2, {d20-d21} .long 0xe28d2050 // add r2, sp, #80 .long 0xf344edda // vmul.f32 q15, q10, q5 .long 0xf3080ddc // vmul.f32 q0, q12, q6 .long 0xecd24b04 // vldmia r2, {d20-d21} .long 0xf3420dfa // vmul.f32 q8, q9, q13 .long 0xe28d2040 // add r2, sp, #64 .long 0xf2c08050 // vmov.i32 q12, #0 .long 0xf240ed6e // vadd.f32 q15, q0, q15 .long 0xf3040dfa // vmul.f32 q0, q10, q13 .long 0xf2440d60 // vadd.f32 q8, q2, q8 .long 0xf24eedc0 // vadd.f32 q15, q15, q0 .long 0xf34eedd6 // vmul.f32 q15, q15, q3 .long 0xf26eede0 // vsub.f32 q15, q15, q8 .long 0xf24c0dee // vadd.f32 q8, q14, q15 .long 0xf2080d6e // vadd.f32 q0, q4, q15 .long 0xf242edee // vadd.f32 q15, q9, q15 .long 0xf340cddc // vmul.f32 q14, q8, q6 .long 0xf3002d5a // vmul.f32 q1, q0, q5 .long 0xf34e2dfa // vmul.f32 q9, q15, q13 .long 0xf24ccdc2 // vadd.f32 q14, q14, q1 .long 0xf242adec // vadd.f32 q13, q9, q14 .long 0xf2602d6a // vsub.f32 q9, q0, q13 .long 0xf30a8df2 // vmul.f32 q4, q13, q9 .long 0xf2602f6e // vmin.f32 q9, q0, q15 .long 0xf2602fe2 // vmin.f32 q9, q8, q9 .long 0xf22aade2 // vsub.f32 q5, q13, q9 .long 0xeec93aab // vdiv.f32 s7, s19, s23 .long 0xee893a0b // vdiv.f32 s6, s18, s22 .long 0xeec82aaa // vdiv.f32 s5, s17, s21 .long 0xee882a0a // vdiv.f32 s4, s16, s20 .long 0xf3b984e2 // vcge.f32 q4, q9, #0 .long 0xf24acdc2 // vadd.f32 q14, q13, q1 .long 0xf2282158 // vorr q1, q4, q4 .long 0xf310217c // vbsl q1, q0, q14 .long 0xf346cdd6 // vmul.f32 q14, q11, q3 .long 0xf2224d6a // vsub.f32 q2, q1, q13 .long 0xf2000f6e // vmax.f32 q0, q0, q15 .long 0xf26c2dea // vsub.f32 q9, q14, q13 .long 0xf302cdd4 // vmul.f32 q6, q9, q2 .long 0xf2004fc0 // vmax.f32 q2, q8, q0 .long 0xf2240d6a // vsub.f32 q0, q2, q13 .long 0xeecdfaa1 // vdiv.f32 s31, s27, s3 .long 0xee8dfa01 // vdiv.f32 s30, s26, s2 .long 0xeecceaa0 // vdiv.f32 s29, s25, s1 .long 0xee8cea00 // vdiv.f32 s28, s24, s0 .long 0xf20acdce // vadd.f32 q6, q13, q7 .long 0xf324ee6c // vcgt.f32 q7, q2, q14 .long 0xf22e415e // vorr q2, q7, q7 .long 0xf31c4152 // vbsl q2, q6, q1 .long 0xf2202dea // vsub.f32 q1, q8, q13 .long 0xf2444f68 // vmax.f32 q10, q2, q12 .long 0xf30a2dd2 // vmul.f32 q1, q13, q1 .long 0xeec35aab // vdiv.f32 s11, s7, s23 .long 0xee835a0b // vdiv.f32 s10, s6, s22 .long 0xeec24aaa // vdiv.f32 s9, s5, s21 .long 0xee824a0a // vdiv.f32 s8, s4, s20 .long 0xf20a2dc4 // vadd.f32 q1, q13, q2 .long 0xf2284158 // vorr q2, q4, q4 .long 0xf31041d2 // vbsl q2, q8, q1 .long 0xf2640d6a // vsub.f32 q8, q2, q13 .long 0xf3022df0 // vmul.f32 q1, q9, q8 .long 0xeec3daa1 // vdiv.f32 s27, s7, s3 .long 0xee83da01 // vdiv.f32 s26, s6, s2 .long 0xeec2caa0 // vdiv.f32 s25, s5, s1 .long 0xee82ca00 // vdiv.f32 s24, s4, s0 .long 0xf24a0dcc // vadd.f32 q8, q13, q6 .long 0xf22e215e // vorr q1, q7, q7 .long 0xf280c050 // vmov.i32 q6, #0 .long 0xf31021d4 // vbsl q1, q8, q2 .long 0xf2420f68 // vmax.f32 q8, q1, q12 .long 0xecd28b04 // vldmia r2, {d24-d25} .long 0xf22e2dea // vsub.f32 q1, q15, q13 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf30a2dd2 // vmul.f32 q1, q13, q1 .long 0xeec35aab // vdiv.f32 s11, s7, s23 .long 0xee835a0b // vdiv.f32 s10, s6, s22 .long 0xeec24aaa // vdiv.f32 s9, s5, s21 .long 0xee824a0a // vdiv.f32 s8, s4, s20 .long 0xf20a2dc4 // vadd.f32 q1, q13, q2 .long 0xf31e81d2 // vbsl q4, q15, q1 .long 0xf268ed6a // vsub.f32 q15, q4, q13 .long 0xf3022dfe // vmul.f32 q1, q9, q15 .long 0xecd3eb04 // vldmia r3, {d30-d31} .long 0xe28d3020 // add r3, sp, #32 .long 0xeec35aa1 // vdiv.f32 s11, s7, s3 .long 0xee835a01 // vdiv.f32 s10, s6, s2 .long 0xeec24aa0 // vdiv.f32 s9, s5, s1 .long 0xee824a00 // vdiv.f32 s8, s4, s0 .long 0xf24a2dc4 // vadd.f32 q9, q13, q2 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xe28d3050 // add r3, sp, #80 .long 0xf312e1d8 // vbsl q7, q9, q4 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf262adc6 // vsub.f32 q13, q9, q3 .long 0xf2622de6 // vsub.f32 q9, q9, q11 .long 0xf2466dc6 // vadd.f32 q11, q11, q3 .long 0xf34a8df8 // vmul.f32 q12, q13, q12 .long 0xf342edfe // vmul.f32 q15, q9, q15 .long 0xf3020dd0 // vmul.f32 q0, q9, q0 .long 0xf2266dec // vsub.f32 q3, q11, q14 .long 0xf2488dee // vadd.f32 q12, q12, q15 .long 0xecddeb04 // vldmia sp, {d30-d31} .long 0xf34aedfe // vmul.f32 q15, q13, q15 .long 0xf2082de4 // vadd.f32 q1, q12, q10 .long 0xf24eedc0 // vadd.f32 q15, q15, q0 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xe28d3030 // add r3, sp, #48 .long 0xf34aadd0 // vmul.f32 q13, q13, q0 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xf3422dd0 // vmul.f32 q9, q9, q0 .long 0xf20e0de0 // vadd.f32 q0, q15, q8 .long 0xf24a2de2 // vadd.f32 q9, q13, q9 .long 0xf24eaf4c // vmax.f32 q13, q7, q6 .long 0xf2024dea // vadd.f32 q2, q9, q13 .long 0xe28dd068 // add sp, sp, #104 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae HIDDEN _sk_color_vfp4 .globl _sk_color_vfp4 FUNCTION(_sk_color_vfp4) _sk_color_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd068 // sub sp, sp, #104 .long 0xe28d3030 // add r3, sp, #48 .long 0xe2802040 // add r2, r0, #64 .long 0xec834b04 // vstmia r3, {d4-d5} .long 0xe28d3040 // add r3, sp, #64 .long 0xec832b04 // vstmia r3, {d2-d3} .long 0xe28d3050 // add r3, sp, #80 .long 0xec830b04 // vstmia r3, {d0-d1} .long 0xe28d3020 // add r3, sp, #32 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe28f2e22 // add r2, pc, #544 .long 0xf3440dd2 // vmul.f32 q8, q10, q1 .long 0xf3442dd0 // vmul.f32 q9, q10, q0 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f2e22 // add r2, pc, #544 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f2f8a // add r2, pc, #552 .long 0xf3406df8 // vmul.f32 q11, q8, q12 .long 0xf462eacf // vld1.64 {d30-d31}, [r2] .long 0xf342cdfa // vmul.f32 q14, q9, q13 .long 0xe2802020 // add r2, r0, #32 .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xec8d2b04 // vstmia sp, {d2-d3} .long 0xf3022d78 // vmul.f32 q1, q1, q12 .long 0xf24c6de6 // vadd.f32 q11, q14, q11 .long 0xf344cdd4 // vmul.f32 q14, q10, q2 .long 0xf30c0dfe // vmul.f32 q0, q14, q15 .long 0xf2406d66 // vadd.f32 q11, q0, q11 .long 0xf4220aef // vld1.64 {d0-d1}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf3008d7a // vmul.f32 q4, q0, q13 .long 0xec830b04 // vstmia r3, {d0-d1} .long 0xe28d3040 // add r3, sp, #64 .long 0xf4220aef // vld1.64 {d0-d1}, [r2 :128] .long 0xe28d2010 // add r2, sp, #16 .long 0xf300ad7e // vmul.f32 q5, q0, q15 .long 0xec820b04 // vstmia r2, {d0-d1} .long 0xf2088d42 // vadd.f32 q4, q4, q1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2088d4a // vadd.f32 q4, q4, q5 .long 0xf3088d56 // vmul.f32 q4, q4, q3 .long 0xf2288d66 // vsub.f32 q4, q4, q11 .long 0xf2406dc8 // vadd.f32 q11, q8, q4 .long 0xf2420dc8 // vadd.f32 q8, q9, q4 .long 0xf24ccdc8 // vadd.f32 q14, q14, q4 .long 0xf3468df8 // vmul.f32 q12, q11, q12 .long 0xf3402dfa // vmul.f32 q9, q8, q13 .long 0xf2422de8 // vadd.f32 q9, q9, q12 .long 0xf34c8dfe // vmul.f32 q12, q14, q15 .long 0xf2488de2 // vadd.f32 q12, q12, q9 .long 0xf2662de8 // vsub.f32 q9, q11, q12 .long 0xf308adf2 // vmul.f32 q5, q12, q9 .long 0xf2662fec // vmin.f32 q9, q11, q14 .long 0xf2602fe2 // vmin.f32 q9, q8, q9 .long 0xf3f9e4e2 // vcge.f32 q15, q9, #0 .long 0xf2288de2 // vsub.f32 q4, q12, q9 .long 0xeecbdaa9 // vdiv.f32 s27, s23, s19 .long 0xee8bda09 // vdiv.f32 s26, s22, s18 .long 0xeecacaa8 // vdiv.f32 s25, s21, s17 .long 0xee8aca08 // vdiv.f32 s24, s20, s16 .long 0xf248adcc // vadd.f32 q13, q12, q6 .long 0xf22ec1fe // vorr q6, q15, q15 .long 0xf316c1fa // vbsl q6, q11, q13 .long 0xf2466fec // vmax.f32 q11, q11, q14 .long 0xf344add6 // vmul.f32 q13, q10, q3 .long 0xf22cad68 // vsub.f32 q5, q6, q12 .long 0xf2406fe6 // vmax.f32 q11, q8, q11 .long 0xf26a2de8 // vsub.f32 q9, q13, q12 .long 0xf226ede8 // vsub.f32 q7, q11, q12 .long 0xf302adda // vmul.f32 q5, q9, q5 .long 0xf3666eea // vcgt.f32 q11, q11, q13 .long 0xeecb5aaf // vdiv.f32 s11, s23, s31 .long 0xee8b5a0f // vdiv.f32 s10, s22, s30 .long 0xeeca4aae // vdiv.f32 s9, s21, s29 .long 0xee8a4a0e // vdiv.f32 s8, s20, s28 .long 0xf2084dc4 // vadd.f32 q2, q12, q2 .long 0xf226a1f6 // vorr q5, q11, q11 .long 0xf314a15c // vbsl q5, q2, q6 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf20acf44 // vmax.f32 q6, q5, q2 .long 0xf220ade8 // vsub.f32 q5, q8, q12 .long 0xf308adda // vmul.f32 q5, q12, q5 .long 0xeecb3aa9 // vdiv.f32 s7, s23, s19 .long 0xee8b3a09 // vdiv.f32 s6, s22, s18 .long 0xeeca2aa8 // vdiv.f32 s5, s21, s17 .long 0xee8a2a08 // vdiv.f32 s4, s20, s16 .long 0xf2082dc2 // vadd.f32 q1, q12, q1 .long 0xf22ea1fe // vorr q5, q15, q15 .long 0xf310a1d2 // vbsl q5, q8, q1 .long 0xf26a0d68 // vsub.f32 q8, q5, q12 .long 0xf3022df0 // vmul.f32 q1, q9, q8 .long 0xeec31aaf // vdiv.f32 s3, s7, s31 .long 0xee831a0f // vdiv.f32 s2, s6, s30 .long 0xeec20aae // vdiv.f32 s1, s5, s29 .long 0xee820a0e // vdiv.f32 s0, s4, s28 .long 0xf2480dc0 // vadd.f32 q8, q12, q0 .long 0xf22601f6 // vorr q0, q11, q11 .long 0xf31001da // vbsl q0, q8, q5 .long 0xf2400f44 // vmax.f32 q8, q0, q2 .long 0xf22c0de8 // vsub.f32 q0, q14, q12 .long 0xf3080dd0 // vmul.f32 q0, q12, q0 .long 0xeec13aa9 // vdiv.f32 s7, s3, s19 .long 0xee813a09 // vdiv.f32 s6, s2, s18 .long 0xeec02aa8 // vdiv.f32 s5, s1, s17 .long 0xee802a08 // vdiv.f32 s4, s0, s16 .long 0xf2080dc2 // vadd.f32 q0, q12, q1 .long 0xf35ce1d0 // vbsl q15, q14, q0 .long 0xf26ecde8 // vsub.f32 q14, q15, q12 .long 0xf3020dfc // vmul.f32 q0, q9, q14 .long 0xecddcb04 // vldmia sp, {d28-d29} .long 0xeec13aaf // vdiv.f32 s7, s3, s31 .long 0xee813a0f // vdiv.f32 s6, s2, s30 .long 0xeec02aae // vdiv.f32 s5, s1, s29 .long 0xee802a0e // vdiv.f32 s4, s0, s28 .long 0xf2482dc2 // vadd.f32 q9, q12, q1 .long 0xf35261fe // vbsl q11, q9, q15 .long 0xecd3eb04 // vldmia r3, {d30-d31} .long 0xe28d3020 // add r3, sp, #32 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2466fc4 // vmax.f32 q11, q11, q2 .long 0xf2628dc6 // vsub.f32 q12, q9, q3 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2444dc6 // vadd.f32 q10, q10, q3 .long 0xf348cdfc // vmul.f32 q14, q12, q14 .long 0xf342edfe // vmul.f32 q15, q9, q15 .long 0xf2246dea // vsub.f32 q3, q10, q13 .long 0xf24ecdec // vadd.f32 q14, q15, q14 .long 0xecd3eb04 // vldmia r3, {d30-d31} .long 0xe28d3050 // add r3, sp, #80 .long 0xf348edfe // vmul.f32 q15, q12, q15 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xe28d3010 // add r3, sp, #16 .long 0xf3020dd0 // vmul.f32 q0, q9, q0 .long 0xf20c2dcc // vadd.f32 q1, q14, q6 .long 0xf240ed6e // vadd.f32 q15, q0, q15 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xe28d3030 // add r3, sp, #48 .long 0xf3488dd0 // vmul.f32 q12, q12, q0 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xf3422dd0 // vmul.f32 q9, q9, q0 .long 0xf20e0de0 // vadd.f32 q0, q15, q8 .long 0xf2422de8 // vadd.f32 q9, q9, q12 .long 0xf2024de6 // vadd.f32 q2, q9, q11 .long 0xe28dd068 // add sp, sp, #104 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae HIDDEN _sk_luminosity_vfp4 .globl _sk_luminosity_vfp4 FUNCTION(_sk_luminosity_vfp4) _sk_luminosity_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd068 // sub sp, sp, #104 .long 0xe28d3020 // add r3, sp, #32 .long 0xe2802020 // add r2, r0, #32 .long 0xec834b04 // vstmia r3, {d4-d5} .long 0xe28d3010 // add r3, sp, #16 .long 0xec8d2b04 // vstmia sp, {d2-d3} .long 0xec830b04 // vstmia r3, {d0-d1} .long 0xe28d3040 // add r3, sp, #64 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xecc30b04 // vstmia r3, {d16-d17} .long 0xe28d3050 // add r3, sp, #80 .long 0xf3400dd6 // vmul.f32 q8, q8, q3 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xf3442dd6 // vmul.f32 q9, q10, q3 .long 0xecc34b04 // vstmia r3, {d20-d21} .long 0xe28f2f82 // add r2, pc, #520 .long 0xe28d3030 // add r3, sp, #48 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f2f83 // add r2, pc, #524 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe2802030 // add r2, r0, #48 .long 0xf3404df8 // vmul.f32 q10, q8, q12 .long 0xf462caef // vld1.64 {d28-d29}, [r2 :128] .long 0xf3426dfa // vmul.f32 q11, q9, q13 .long 0xf3008d7a // vmul.f32 q4, q0, q13 .long 0xecc3cb04 // vstmia r3, {d28-d29} .long 0xf34ccdd6 // vmul.f32 q14, q14, q3 .long 0xe28f2f7e // add r2, pc, #504 .long 0xe28d3050 // add r3, sp, #80 .long 0xf462eacf // vld1.64 {d30-d31}, [r2] .long 0xe2802040 // add r2, r0, #64 .long 0xf2464de4 // vadd.f32 q10, q11, q10 .long 0xf34c6dfe // vmul.f32 q11, q14, q15 .long 0xf2444de6 // vadd.f32 q10, q10, q11 .long 0xf3426d78 // vmul.f32 q11, q1, q12 .long 0xf2486d66 // vadd.f32 q11, q4, q11 .long 0xf3048d7e // vmul.f32 q4, q2, q15 .long 0xf2068dc8 // vadd.f32 q4, q11, q4 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xe28d2040 // add r2, sp, #64 .long 0xf3088d76 // vmul.f32 q4, q4, q11 .long 0xf2288d64 // vsub.f32 q4, q4, q10 .long 0xf2404dc8 // vadd.f32 q10, q8, q4 .long 0xf2420dc8 // vadd.f32 q8, q9, q4 .long 0xf24ccdc8 // vadd.f32 q14, q14, q4 .long 0xf3448df8 // vmul.f32 q12, q10, q12 .long 0xf3402dfa // vmul.f32 q9, q8, q13 .long 0xf2422de8 // vadd.f32 q9, q9, q12 .long 0xf34c8dfe // vmul.f32 q12, q14, q15 .long 0xf2488de2 // vadd.f32 q12, q12, q9 .long 0xf2642de8 // vsub.f32 q9, q10, q12 .long 0xf308adf2 // vmul.f32 q5, q12, q9 .long 0xf2642fec // vmin.f32 q9, q10, q14 .long 0xf2602fe2 // vmin.f32 q9, q8, q9 .long 0xf3f9e4e2 // vcge.f32 q15, q9, #0 .long 0xf2288de2 // vsub.f32 q4, q12, q9 .long 0xeecbdaa9 // vdiv.f32 s27, s23, s19 .long 0xee8bda09 // vdiv.f32 s26, s22, s18 .long 0xeecacaa8 // vdiv.f32 s25, s21, s17 .long 0xee8aca08 // vdiv.f32 s24, s20, s16 .long 0xf248adcc // vadd.f32 q13, q12, q6 .long 0xf22ec1fe // vorr q6, q15, q15 .long 0xf314c1fa // vbsl q6, q10, q13 .long 0xf2444fec // vmax.f32 q10, q10, q14 .long 0xf346add6 // vmul.f32 q13, q11, q3 .long 0xf22cad68 // vsub.f32 q5, q6, q12 .long 0xf2404fe4 // vmax.f32 q10, q8, q10 .long 0xf26a2de8 // vsub.f32 q9, q13, q12 .long 0xf224ede8 // vsub.f32 q7, q10, q12 .long 0xf302adda // vmul.f32 q5, q9, q5 .long 0xf3644eea // vcgt.f32 q10, q10, q13 .long 0xeecb5aaf // vdiv.f32 s11, s23, s31 .long 0xee8b5a0f // vdiv.f32 s10, s22, s30 .long 0xeeca4aae // vdiv.f32 s9, s21, s29 .long 0xee8a4a0e // vdiv.f32 s8, s20, s28 .long 0xf2084dc4 // vadd.f32 q2, q12, q2 .long 0xf224a1f4 // vorr q5, q10, q10 .long 0xf314a15c // vbsl q5, q2, q6 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf20acf44 // vmax.f32 q6, q5, q2 .long 0xf220ade8 // vsub.f32 q5, q8, q12 .long 0xf308adda // vmul.f32 q5, q12, q5 .long 0xeecb3aa9 // vdiv.f32 s7, s23, s19 .long 0xee8b3a09 // vdiv.f32 s6, s22, s18 .long 0xeeca2aa8 // vdiv.f32 s5, s21, s17 .long 0xee8a2a08 // vdiv.f32 s4, s20, s16 .long 0xf2082dc2 // vadd.f32 q1, q12, q1 .long 0xf22ea1fe // vorr q5, q15, q15 .long 0xf310a1d2 // vbsl q5, q8, q1 .long 0xf26a0d68 // vsub.f32 q8, q5, q12 .long 0xf3022df0 // vmul.f32 q1, q9, q8 .long 0xeec31aaf // vdiv.f32 s3, s7, s31 .long 0xee831a0f // vdiv.f32 s2, s6, s30 .long 0xeec20aae // vdiv.f32 s1, s5, s29 .long 0xee820a0e // vdiv.f32 s0, s4, s28 .long 0xf2480dc0 // vadd.f32 q8, q12, q0 .long 0xf22401f4 // vorr q0, q10, q10 .long 0xf31001da // vbsl q0, q8, q5 .long 0xf2400f44 // vmax.f32 q8, q0, q2 .long 0xf22c0de8 // vsub.f32 q0, q14, q12 .long 0xf3080dd0 // vmul.f32 q0, q12, q0 .long 0xeec13aa9 // vdiv.f32 s7, s3, s19 .long 0xee813a09 // vdiv.f32 s6, s2, s18 .long 0xeec02aa8 // vdiv.f32 s5, s1, s17 .long 0xee802a08 // vdiv.f32 s4, s0, s16 .long 0xf2080dc2 // vadd.f32 q0, q12, q1 .long 0xf35ce1d0 // vbsl q15, q14, q0 .long 0xf26ecde8 // vsub.f32 q14, q15, q12 .long 0xf3020dfc // vmul.f32 q0, q9, q14 .long 0xecd2cb04 // vldmia r2, {d28-d29} .long 0xe4912004 // ldr r2, [r1], #4 .long 0xeec13aaf // vdiv.f32 s7, s3, s31 .long 0xee813a0f // vdiv.f32 s6, s2, s30 .long 0xeec02aae // vdiv.f32 s5, s1, s29 .long 0xee802a0e // vdiv.f32 s4, s0, s28 .long 0xf2482dc2 // vadd.f32 q9, q12, q1 .long 0xf35241fe // vbsl q10, q9, q15 .long 0xecddeb04 // vldmia sp, {d30-d31} .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2444fc4 // vmax.f32 q10, q10, q2 .long 0xf2628dc6 // vsub.f32 q12, q9, q3 .long 0xf2622de6 // vsub.f32 q9, q9, q11 .long 0xf2466dc6 // vadd.f32 q11, q11, q3 .long 0xf348cdfc // vmul.f32 q14, q12, q14 .long 0xf342edfe // vmul.f32 q15, q9, q15 .long 0xf2266dea // vsub.f32 q3, q11, q13 .long 0xf24ccdee // vadd.f32 q14, q14, q15 .long 0xecd3eb04 // vldmia r3, {d30-d31} .long 0xe28d3010 // add r3, sp, #16 .long 0xf348edfe // vmul.f32 q15, q12, q15 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xe28d3030 // add r3, sp, #48 .long 0xf3020dd0 // vmul.f32 q0, q9, q0 .long 0xf20c2dcc // vadd.f32 q1, q14, q6 .long 0xf24eedc0 // vadd.f32 q15, q15, q0 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xe28d3020 // add r3, sp, #32 .long 0xf3488dd0 // vmul.f32 q12, q12, q0 .long 0xec930b04 // vldmia r3, {d0-d1} .long 0xf3422dd0 // vmul.f32 q9, q9, q0 .long 0xf20e0de0 // vadd.f32 q0, q15, q8 .long 0xf2482de2 // vadd.f32 q9, q12, q9 .long 0xf2024de4 // vadd.f32 q2, q9, q10 .long 0xe28dd068 // add sp, sp, #104 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3f170a3d // .word 0x3f170a3d .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae .long 0x3de147ae // .word 0x3de147ae HIDDEN _sk_srcover_rgba_8888_vfp4 .globl _sk_srcover_rgba_8888_vfp4 FUNCTION(_sk_srcover_rgba_8888_vfp4) _sk_srcover_rgba_8888_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xed2d8b08 // vpush {d8-d11} .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe5905004 // ldr r5, [r0, #4] .long 0xe280e030 // add lr, r0, #48 .long 0xe5906000 // ldr r6, [r0] .long 0xe5924000 // ldr r4, [r2] .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe5903008 // ldr r3, [r0, #8] .long 0xe0020592 // mul r2, r2, r5 .long 0xe2805010 // add r5, r0, #16 .long 0xe3530000 // cmp r3, #0 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe2804020 // add r4, r0, #32 .long 0xe0822106 // add r2, r2, r6, lsl #2 .long 0x1a000032 // bne 1ba0 .long 0xf4620a8f // vld1.32 {d16-d17}, [r2] .long 0xf3c7405f // vmov.i32 q10, #255 .long 0xe28f6f51 // add r6, pc, #324 .long 0xf3f02070 // vshr.u32 q9, q8, #16 .long 0xf4668acf // vld1.64 {d24-d25}, [r6] .long 0xf2c76f50 // vmov.f32 q11, #1 .long 0xe3530000 // cmp r3, #0 .long 0xf240e1f4 // vand q15, q8, q10 .long 0xf3a88070 // vshr.u32 q4, q8, #24 .long 0xf3f80070 // vshr.u32 q8, q8, #8 .long 0xf2666dc6 // vsub.f32 q11, q11, q3 .long 0xf24001f4 // vand q8, q8, q10 .long 0xf3bb8648 // vcvt.f32.s32 q4, q4 .long 0xf3066d78 // vmul.f32 q3, q3, q12 .long 0xf24221f4 // vand q9, q9, q10 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3022d78 // vmul.f32 q1, q1, q12 .long 0xf3fbe66e // vcvt.f32.s32 q15, q15 .long 0xf3000d78 // vmul.f32 q0, q0, q12 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf3044d78 // vmul.f32 q2, q2, q12 .long 0xf2086c76 // vfma.f32 q3, q4, q11 .long 0xf445eaef // vst1.64 {d30-d31}, [r5 :128] .long 0xf2002cf6 // vfma.f32 q1, q8, q11 .long 0xf4440aef // vst1.64 {d16-d17}, [r4 :128] .long 0xf20e0cf6 // vfma.f32 q0, q15, q11 .long 0xf44e2aef // vst1.64 {d18-d19}, [lr :128] .long 0xf2024cf6 // vfma.f32 q2, q9, q11 .long 0xf40c8aef // vst1.64 {d8-d9}, [ip :128] .long 0xf2c3a65f // vmov.i32 q13, #1056964608 .long 0xf206ad6a // vadd.f32 q5, q3, q13 .long 0xf2424d6a // vadd.f32 q10, q1, q13 .long 0xf240ed6a // vadd.f32 q15, q0, q13 .long 0xf244cd6a // vadd.f32 q14, q2, q13 .long 0xf3bba7ca // vcvt.u32.f32 q5, q5 .long 0xf3fb47e4 // vcvt.u32.f32 q10, q10 .long 0xf3fbe7ee // vcvt.u32.f32 q15, q15 .long 0xf3fbc7ec // vcvt.u32.f32 q14, q14 .long 0xf2b8a55a // vshl.s32 q5, q5, #24 .long 0xf2e84574 // vshl.s32 q10, q10, #8 .long 0xf26ee1da // vorr q15, q15, q5 .long 0xf2f0c57c // vshl.s32 q14, q14, #16 .long 0xf26e01f4 // vorr q8, q15, q10 .long 0xf26001fc // vorr q8, q8, q14 .long 0x1a000015 // bne 1be0 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xecbd8b08 // vpop {d8-d11} .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff12 // bx r2 .long 0xe2036003 // and r6, r3, #3 .long 0xe3560001 // cmp r6, #1 .long 0x0a000017 // beq 1c0c .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe3560002 // cmp r6, #2 .long 0x0a000005 // beq 1bd0 .long 0xe3560003 // cmp r6, #3 .long 0x1affffc5 // bne 1ad8 .long 0xe3a06000 // mov r6, #0 .long 0xeea06b90 // vdup.32 q8, r6 .long 0xe2826008 // add r6, r2, #8 .long 0xf4e6183f // vld1.32 {d17[0]}, [r6 :32] .long 0xedd22b00 // vldr d18, [r2] .long 0xf2f008e2 // vext.8 q8, q8, q9, #8 .long 0xf2f008e0 // vext.8 q8, q8, q8, #8 .long 0xeaffffbd // b 1ad8 .long 0xe2033003 // and r3, r3, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a00000b // beq 1c1c .long 0xe3530002 // cmp r3, #2 .long 0x0a000003 // beq 1c04 .long 0xe3530003 // cmp r3, #3 .long 0x1affffe3 // bne 1b8c .long 0xe2823008 // add r3, r2, #8 .long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32] .long 0xedc20b00 // vstr d16, [r2] .long 0xeaffffdf // b 1b8c .long 0xe3a06000 // mov r6, #0 .long 0xeea06b90 // vdup.32 q8, r6 .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xeaffffae // b 1ad8 .long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32] .long 0xeaffffd9 // b 1b8c .long 0xe320f000 // nop {0} .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 HIDDEN _sk_clamp_0_vfp4 .globl _sk_clamp_0_vfp4 FUNCTION(_sk_clamp_0_vfp4) _sk_clamp_0_vfp4: .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2000f60 // vmax.f32 q0, q0, q8 .long 0xf2022f60 // vmax.f32 q1, q1, q8 .long 0xf2044f60 // vmax.f32 q2, q2, q8 .long 0xf2066f60 // vmax.f32 q3, q3, q8 .long 0xe12fff12 // bx r2 HIDDEN _sk_clamp_1_vfp4 .globl _sk_clamp_1_vfp4 FUNCTION(_sk_clamp_1_vfp4) _sk_clamp_1_vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2200f60 // vmin.f32 q0, q0, q8 .long 0xf2222f60 // vmin.f32 q1, q1, q8 .long 0xf2244f60 // vmin.f32 q2, q2, q8 .long 0xf2266f60 // vmin.f32 q3, q3, q8 .long 0xe12fff12 // bx r2 HIDDEN _sk_clamp_a_vfp4 .globl _sk_clamp_a_vfp4 FUNCTION(_sk_clamp_a_vfp4) _sk_clamp_a_vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2266f60 // vmin.f32 q3, q3, q8 .long 0xf2200f46 // vmin.f32 q0, q0, q3 .long 0xf2222f46 // vmin.f32 q1, q1, q3 .long 0xf2244f46 // vmin.f32 q2, q2, q3 .long 0xe12fff12 // bx r2 HIDDEN _sk_clamp_a_dst_vfp4 .globl _sk_clamp_a_dst_vfp4 FUNCTION(_sk_clamp_a_dst_vfp4) _sk_clamp_a_dst_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2620fe0 // vmin.f32 q8, q9, q8 .long 0xf4420aef // vst1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2622fe0 // vmin.f32 q9, q9, q8 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2622fe0 // vmin.f32 q9, q9, q8 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2620fe0 // vmin.f32 q8, q9, q8 .long 0xf4420aef // vst1.64 {d16-d17}, [r2 :128] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 HIDDEN _sk_set_rgb_vfp4 .globl _sk_set_rgb_vfp4 FUNCTION(_sk_set_rgb_vfp4) _sk_set_rgb_vfp4: .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe2832008 // add r2, r3, #8 .long 0xf4a30cbd // vld1.32 {d0[]-d1[]}, [r3 :32]! .long 0xf4a24cbf // vld1.32 {d4[]-d5[]}, [r2 :32] .long 0xf4a32cbf // vld1.32 {d2[]-d3[]}, [r3 :32] .long 0xe12fff1c // bx ip HIDDEN _sk_swap_rb_vfp4 .globl _sk_swap_rb_vfp4 FUNCTION(_sk_swap_rb_vfp4) _sk_swap_rb_vfp4: .long 0xf2600150 // vorr q8, q0, q0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2240154 // vorr q0, q2, q2 .long 0xf22041f0 // vorr q2, q8, q8 .long 0xe12fff12 // bx r2 HIDDEN _sk_invert_vfp4 .globl _sk_invert_vfp4 FUNCTION(_sk_invert_vfp4) _sk_invert_vfp4: .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2200dc0 // vsub.f32 q0, q8, q0 .long 0xf2202dc2 // vsub.f32 q1, q8, q1 .long 0xf2204dc4 // vsub.f32 q2, q8, q2 .long 0xf2206dc6 // vsub.f32 q3, q8, q3 .long 0xe12fff12 // bx r2 HIDDEN _sk_move_src_dst_vfp4 .globl _sk_move_src_dst_vfp4 FUNCTION(_sk_move_src_dst_vfp4) _sk_move_src_dst_vfp4: .long 0xe2802010 // add r2, r0, #16 .long 0xf4020aef // vst1.64 {d0-d1}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4022aef // vst1.64 {d2-d3}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4024aef // vst1.64 {d4-d5}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf4026aef // vst1.64 {d6-d7}, [r2 :128] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 HIDDEN _sk_move_dst_src_vfp4 .globl _sk_move_dst_src_vfp4 FUNCTION(_sk_move_dst_src_vfp4) _sk_move_dst_src_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xe2803010 // add r3, r0, #16 .long 0xf4226aef // vld1.64 {d6-d7}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4224aef // vld1.64 {d4-d5}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4222aef // vld1.64 {d2-d3}, [r2 :128] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf4230aef // vld1.64 {d0-d1}, [r3 :128] .long 0xe12fff12 // bx r2 HIDDEN _sk_premul_vfp4 .globl _sk_premul_vfp4 FUNCTION(_sk_premul_vfp4) _sk_premul_vfp4: .long 0xf3000d56 // vmul.f32 q0, q0, q3 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3022d56 // vmul.f32 q1, q1, q3 .long 0xf3044d56 // vmul.f32 q2, q2, q3 .long 0xe12fff12 // bx r2 HIDDEN _sk_premul_dst_vfp4 .globl _sk_premul_dst_vfp4 FUNCTION(_sk_premul_dst_vfp4) _sk_premul_dst_vfp4: .long 0xe2802040 // add r2, r0, #64 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf3422df0 // vmul.f32 q9, q9, q8 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf3420df0 // vmul.f32 q8, q9, q8 .long 0xf4420aef // vst1.64 {d16-d17}, [r2 :128] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xe12fff12 // bx r2 HIDDEN _sk_unpremul_vfp4 .globl _sk_unpremul_vfp4 FUNCTION(_sk_unpremul_vfp4) _sk_unpremul_vfp4: .long 0xed2dab04 // vpush {d10-d11} .long 0xed2d8b02 // vpush {d8} .long 0xeeb78a00 // vmov.f32 s16, #112 .long 0xf3f92546 // vceq.f32 q9, q3, #0 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xeec8ba27 // vdiv.f32 s23, s16, s15 .long 0xee88ba07 // vdiv.f32 s22, s16, s14 .long 0xeec8aa26 // vdiv.f32 s21, s16, s13 .long 0xee88aa06 // vdiv.f32 s20, s16, s12 .long 0xf35021da // vbsl q9, q8, q5 .long 0xf3020dd0 // vmul.f32 q0, q9, q0 .long 0xf3022dd2 // vmul.f32 q1, q9, q1 .long 0xf3024dd4 // vmul.f32 q2, q9, q2 .long 0xecbd8b02 // vpop {d8} .long 0xecbdab04 // vpop {d10-d11} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} HIDDEN _sk_from_srgb_vfp4 .globl _sk_from_srgb_vfp4 FUNCTION(_sk_from_srgb_vfp4) _sk_from_srgb_vfp4: .long 0xed2d8b04 // vpush {d8-d9} .long 0xe28f2094 // add r2, pc, #148 .long 0xf3408d50 // vmul.f32 q12, q0, q0 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f2098 // add r2, pc, #152 .long 0xf342ad52 // vmul.f32 q13, q1, q1 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xe28f209c // add r2, pc, #156 .long 0xf26621f6 // vorr q9, q11, q11 .long 0xf26641f6 // vorr q10, q11, q11 .long 0xf462cacf // vld1.64 {d28-d29}, [r2] .long 0xf2402c70 // vfma.f32 q9, q0, q8 .long 0xe28f2098 // add r2, pc, #152 .long 0xf2424c70 // vfma.f32 q10, q1, q8 .long 0xf26ce1fc // vorr q15, q14, q14 .long 0xf2446c70 // vfma.f32 q11, q2, q8 .long 0xf22c81fc // vorr q4, q14, q14 .long 0xf248ecf2 // vfma.f32 q15, q12, q9 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f208c // add r2, pc, #140 .long 0xf20a8cf4 // vfma.f32 q4, q13, q10 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf3680ec2 // vcgt.f32 q8, q12, q1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3022d7a // vmul.f32 q1, q1, q13 .long 0xf3682ec4 // vcgt.f32 q9, q12, q2 .long 0xf3684ec0 // vcgt.f32 q10, q12, q0 .long 0xf3448d7a // vmul.f32 q12, q2, q13 .long 0xf340ad7a // vmul.f32 q13, q0, q13 .long 0xf3040d54 // vmul.f32 q0, q2, q2 .long 0xf3520158 // vbsl q8, q1, q4 .long 0xf35a41fe // vbsl q10, q13, q15 .long 0xf240cc76 // vfma.f32 q14, q0, q11 .long 0xf35821fc // vbsl q9, q12, q14 .long 0xf22401f4 // vorr q0, q10, q10 .long 0xf22021f0 // vorr q1, q8, q8 .long 0xf22241f2 // vorr q2, q9, q9 .long 0xecbd8b04 // vpop {d8-d9} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3f328f5c // .word 0x3f328f5c .long 0x3f328f5c // .word 0x3f328f5c .long 0x3f328f5c // .word 0x3f328f5c .long 0x3f328f5c // .word 0x3f328f5c .long 0x3b23d70a // .word 0x3b23d70a .long 0x3b23d70a // .word 0x3b23d70a .long 0x3b23d70a // .word 0x3b23d70a .long 0x3b23d70a // .word 0x3b23d70a .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3d9e8391 // .word 0x3d9e8391 HIDDEN _sk_from_srgb_dst_vfp4 .globl _sk_from_srgb_dst_vfp4 FUNCTION(_sk_from_srgb_dst_vfp4) _sk_from_srgb_dst_vfp4: .long 0xed2d8b08 // vpush {d8-d11} .long 0xe28f20ac // add r2, pc, #172 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe2802010 // add r2, r0, #16 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe28f30ac // add r3, pc, #172 .long 0xf4630acf // vld1.64 {d16-d17}, [r3] .long 0xe28f30b4 // add r3, pc, #180 .long 0xf26061f0 // vorr q11, q8, q8 .long 0xf2446cf2 // vfma.f32 q11, q10, q9 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xe28f30b4 // add r3, pc, #180 .long 0xf463cacf // vld1.64 {d28-d29}, [r3] .long 0xf344adf4 // vmul.f32 q13, q10, q10 .long 0xf368eee4 // vcgt.f32 q15, q12, q10 .long 0xe28f30b4 // add r3, pc, #180 .long 0xf4238acf // vld1.64 {d8-d9}, [r3] .long 0xf3444dfc // vmul.f32 q10, q10, q14 .long 0xf228a158 // vorr q5, q4, q4 .long 0xf20aacf6 // vfma.f32 q5, q13, q11 .long 0xf354e1da // vbsl q15, q10, q5 .long 0xf26061f0 // vorr q11, q8, q8 .long 0xf228a158 // vorr q5, q4, q4 .long 0xf442eaef // vst1.64 {d30-d31}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xf2446cf2 // vfma.f32 q11, q10, q9 .long 0xf344adf4 // vmul.f32 q13, q10, q10 .long 0xf368eee4 // vcgt.f32 q15, q12, q10 .long 0xf3444dfc // vmul.f32 q10, q10, q14 .long 0xf20aacf6 // vfma.f32 q5, q13, q11 .long 0xf354e1da // vbsl q15, q10, q5 .long 0xf442eaef // vst1.64 {d30-d31}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xf2440cf2 // vfma.f32 q8, q10, q9 .long 0xf3442df4 // vmul.f32 q9, q10, q10 .long 0xf3686ee4 // vcgt.f32 q11, q12, q10 .long 0xf3444dfc // vmul.f32 q10, q10, q14 .long 0xf2028cf0 // vfma.f32 q4, q9, q8 .long 0xf35461d8 // vbsl q11, q10, q4 .long 0xf4426aef // vst1.64 {d22-d23}, [r2 :128] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xecbd8b08 // vpop {d8-d11} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3e99999a // .word 0x3e99999a .long 0x3f328f5c // .word 0x3f328f5c .long 0x3f328f5c // .word 0x3f328f5c .long 0x3f328f5c // .word 0x3f328f5c .long 0x3f328f5c // .word 0x3f328f5c .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d6147ae // .word 0x3d6147ae .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3d9e8391 // .word 0x3d9e8391 .long 0x3b23d70a // .word 0x3b23d70a .long 0x3b23d70a // .word 0x3b23d70a .long 0x3b23d70a // .word 0x3b23d70a .long 0x3b23d70a // .word 0x3b23d70a HIDDEN _sk_to_srgb_vfp4 .globl _sk_to_srgb_vfp4 FUNCTION(_sk_to_srgb_vfp4) _sk_to_srgb_vfp4: .long 0xed2d8b08 // vpush {d8-d11} .long 0xf3fb05c0 // vrsqrte.f32 q8, q0 .long 0xe28f20f8 // add r2, pc, #248 .long 0xf3402df0 // vmul.f32 q9, q8, q8 .long 0xf2602f72 // vrsqrts.f32 q9, q0, q9 .long 0xf3400df2 // vmul.f32 q8, q8, q9 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe28f20f4 // add r2, pc, #244 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f20fc // add r2, pc, #252 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f2f41 // add r2, pc, #260 .long 0xf26ac1fa // vorr q14, q13, q13 .long 0xf240ccf8 // vfma.f32 q14, q8, q12 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xe28f2f41 // add r2, pc, #260 .long 0xf22681f6 // vorr q4, q11, q11 .long 0xf2404de2 // vadd.f32 q10, q8, q9 .long 0xf3fbe564 // vrecpe.f32 q15, q10 .long 0xf2008cfc // vfma.f32 q4, q8, q14 .long 0xf3fb05c2 // vrsqrte.f32 q8, q1 .long 0xf2444ffe // vrecps.f32 q10, q10, q15 .long 0xf340cdf0 // vmul.f32 q14, q8, q8 .long 0xf262cf7c // vrsqrts.f32 q14, q1, q14 .long 0xf34e4df4 // vmul.f32 q10, q15, q10 .long 0xf266e1f6 // vorr q15, q11, q11 .long 0xf3400dfc // vmul.f32 q8, q8, q14 .long 0xf26ac1fa // vorr q14, q13, q13 .long 0xf240ccf8 // vfma.f32 q14, q8, q12 .long 0xf240ecfc // vfma.f32 q15, q8, q14 .long 0xf2400de2 // vadd.f32 q8, q8, q9 .long 0xf3fbc560 // vrecpe.f32 q14, q8 .long 0xf2400ffc // vrecps.f32 q8, q8, q14 .long 0xf34c0df0 // vmul.f32 q8, q14, q8 .long 0xf3fbc5c4 // vrsqrte.f32 q14, q2 .long 0xf30cadfc // vmul.f32 q5, q14, q14 .long 0xf224af5a // vrsqrts.f32 q5, q2, q5 .long 0xf34ccdda // vmul.f32 q14, q14, q5 .long 0xf24c2de2 // vadd.f32 q9, q14, q9 .long 0xf24cacf8 // vfma.f32 q13, q14, q12 .long 0xf3fb8562 // vrecpe.f32 q12, q9 .long 0xf2422ff8 // vrecps.f32 q9, q9, q12 .long 0xf24c6cfa // vfma.f32 q11, q14, q13 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f20a0 // add r2, pc, #160 .long 0xf34ecdf0 // vmul.f32 q14, q15, q8 .long 0xf348ed74 // vmul.f32 q15, q4, q10 .long 0xf4228acf // vld1.64 {d8-d9}, [r2] .long 0xf36a0ec4 // vcgt.f32 q8, q13, q2 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3044d58 // vmul.f32 q2, q2, q4 .long 0xf36a4ec0 // vcgt.f32 q10, q13, q0 .long 0xf3488df2 // vmul.f32 q12, q12, q9 .long 0xf36a2ec2 // vcgt.f32 q9, q13, q1 .long 0xf3022d58 // vmul.f32 q1, q1, q4 .long 0xf340ad58 // vmul.f32 q13, q0, q4 .long 0xf3466df8 // vmul.f32 q11, q11, q12 .long 0xf3540176 // vbsl q8, q2, q11 .long 0xf352217c // vbsl q9, q1, q14 .long 0xf35a41fe // vbsl q10, q13, q15 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22401f4 // vorr q0, q10, q10 .long 0xf22041f0 // vorr q2, q8, q8 .long 0xecbd8b08 // vpop {d8-d11} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3e10c64c // .word 0x3e10c64c .long 0x3e10c64c // .word 0x3e10c64c .long 0x3e10c64c // .word 0x3e10c64c .long 0x3e10c64c // .word 0x3e10c64c .long 0xbb20d739 // .word 0xbb20d739 .long 0xbb20d739 // .word 0xbb20d739 .long 0xbb20d739 // .word 0xbb20d739 .long 0xbb20d739 // .word 0xbb20d739 .long 0x3c629fba // .word 0x3c629fba .long 0x3c629fba // .word 0x3c629fba .long 0x3c629fba // .word 0x3c629fba .long 0x3c629fba // .word 0x3c629fba .long 0x3f90a3d7 // .word 0x3f90a3d7 .long 0x3f90a3d7 // .word 0x3f90a3d7 .long 0x3f90a3d7 // .word 0x3f90a3d7 .long 0x3f90a3d7 // .word 0x3f90a3d7 .long 0x3b98b1a8 // .word 0x3b98b1a8 .long 0x3b98b1a8 // .word 0x3b98b1a8 .long 0x3b98b1a8 // .word 0x3b98b1a8 .long 0x3b98b1a8 // .word 0x3b98b1a8 .long 0x414eb852 // .word 0x414eb852 .long 0x414eb852 // .word 0x414eb852 .long 0x414eb852 // .word 0x414eb852 .long 0x414eb852 // .word 0x414eb852 HIDDEN _sk_rgb_to_hsl_vfp4 .globl _sk_rgb_to_hsl_vfp4 FUNCTION(_sk_rgb_to_hsl_vfp4) _sk_rgb_to_hsl_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xf2600f42 // vmin.f32 q8, q0, q1 .long 0xe28f20c8 // add r2, pc, #200 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f20d0 // add r2, pc, #208 .long 0xf2402f42 // vmax.f32 q9, q0, q1 .long 0xeeb7ca00 // vmov.f32 s24, #112 .long 0xf2600fc4 // vmin.f32 q8, q8, q2 .long 0xf2422fc4 // vmax.f32 q9, q9, q2 .long 0xf2624d44 // vsub.f32 q10, q1, q2 .long 0xf3648e42 // vcgt.f32 q12, q2, q1 .long 0xf2228de0 // vsub.f32 q4, q9, q8 .long 0xf260cd42 // vsub.f32 q14, q0, q1 .long 0xf2c1ef50 // vmov.f32 q15, #4 .long 0xeeccba29 // vdiv.f32 s23, s24, s19 .long 0xee8cba09 // vdiv.f32 s22, s24, s18 .long 0xeeccaa28 // vdiv.f32 s21, s24, s17 .long 0xee8caa08 // vdiv.f32 s20, s24, s16 .long 0xf3446dda // vmul.f32 q11, q10, q5 .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xf35a81f4 // vbsl q12, q13, q10 .long 0xf34ccdda // vmul.f32 q14, q14, q5 .long 0xf2486de6 // vadd.f32 q11, q12, q11 .long 0xf2648d40 // vsub.f32 q12, q2, q0 .long 0xf24ccdee // vadd.f32 q14, q14, q15 .long 0xf242ede0 // vadd.f32 q15, q9, q8 .long 0xf3488dda // vmul.f32 q12, q12, q5 .long 0xf283a65f // vmov.i32 q5, #1056964608 .long 0xf2c4a650 // vmov.i32 q13, #1073741824 .long 0xf30e4dda // vmul.f32 q2, q15, q5 .long 0xf2488dea // vadd.f32 q12, q12, q13 .long 0xf26aade2 // vsub.f32 q13, q13, q9 .long 0xf324ce4a // vcgt.f32 q6, q2, q5 .long 0xf26aade0 // vsub.f32 q13, q13, q8 .long 0xf2420ee0 // vceq.f32 q8, q9, q8 .long 0xf31ac1fe // vbsl q6, q13, q15 .long 0xf242aec0 // vceq.f32 q13, q9, q0 .long 0xeec9baad // vdiv.f32 s23, s19, s27 .long 0xee89ba0d // vdiv.f32 s22, s18, s26 .long 0xeec8aaac // vdiv.f32 s21, s17, s25 .long 0xee88aa0c // vdiv.f32 s20, s16, s24 .long 0xf2422ec2 // vceq.f32 q9, q9, q1 .long 0xf35821fc // vbsl q9, q12, q14 .long 0xf356a1f2 // vbsl q13, q11, q9 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf26021f0 // vorr q9, q8, q8 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf35401da // vbsl q8, q10, q5 .long 0xf35421fa // vbsl q9, q10, q13 .long 0xf22021f0 // vorr q1, q8, q8 .long 0xf3020df6 // vmul.f32 q0, q9, q11 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x40c00000 // .word 0x40c00000 .long 0x40c00000 // .word 0x40c00000 .long 0x40c00000 // .word 0x40c00000 .long 0x40c00000 // .word 0x40c00000 .long 0x3e2aaaab // .word 0x3e2aaaab .long 0x3e2aaaab // .word 0x3e2aaaab .long 0x3e2aaaab // .word 0x3e2aaaab .long 0x3e2aaaab // .word 0x3e2aaaab HIDDEN _sk_hsl_to_rgb_vfp4 .globl _sk_hsl_to_rgb_vfp4 FUNCTION(_sk_hsl_to_rgb_vfp4) _sk_hsl_to_rgb_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd028 // sub sp, sp, #40 .long 0xe28d3010 // add r3, sp, #16 .long 0xf3424d54 // vmul.f32 q10, q1, q2 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xec836b04 // vstmia r3, {d6-d7} .long 0xe28f2f63 // add r2, pc, #396 .long 0xf3446e66 // vcge.f32 q11, q2, q11 .long 0xe28d3010 // add r3, sp, #16 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f2f63 // add r2, pc, #396 .long 0xf2400d60 // vadd.f32 q8, q0, q8 .long 0xf4228acf // vld1.64 {d8-d9}, [r2] .long 0xe28f2e19 // add r2, pc, #400 .long 0xf2628d64 // vsub.f32 q12, q1, q10 .long 0xf422eacf // vld1.64 {d14-d15}, [r2] .long 0xf2c0a050 // vmov.i32 q13, #0 .long 0xf3fb2760 // vcvt.s32.f32 q9, q8 .long 0xf35861f4 // vbsl q11, q12, q10 .long 0xf283665f // vmov.i32 q3, #1056964608 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf2464dc4 // vadd.f32 q10, q11, q2 .long 0xf2446d44 // vadd.f32 q11, q2, q2 .long 0xf362cee0 // vcgt.f32 q14, q9, q8 .long 0xf281cf50 // vmov.f32 q6, #4 .long 0xf2666de4 // vsub.f32 q11, q11, q10 .long 0xf358c17a // vbsl q14, q4, q13 .long 0xf283a65f // vmov.i32 q5, #1056964608 .long 0xf2622dec // vsub.f32 q9, q9, q14 .long 0xf264cde6 // vsub.f32 q14, q10, q11 .long 0xf260ade2 // vsub.f32 q13, q8, q9 .long 0xf2c10f58 // vmov.f32 q8, #6 .long 0xf2c12f50 // vmov.f32 q9, #4 .long 0xf34a0df0 // vmul.f32 q8, q13, q8 .long 0xf34aeece // vcge.f32 q15, q13, q7 .long 0xf2628de0 // vsub.f32 q12, q9, q8 .long 0xf34c0df0 // vmul.f32 q8, q14, q8 .long 0xf2c02050 // vmov.i32 q9, #0 .long 0xf34c8df8 // vmul.f32 q12, q14, q12 .long 0xf2460de0 // vadd.f32 q8, q11, q8 .long 0xf2468de8 // vadd.f32 q12, q11, q12 .long 0xeccd0b04 // vstmia sp, {d16-d17} .long 0xe28f2f4b // add r2, pc, #300 .long 0xf356e1f8 // vbsl q15, q11, q12 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f2e13 // add r2, pc, #304 .long 0xf2400d60 // vadd.f32 q8, q0, q8 .long 0xf34a8ec6 // vcge.f32 q12, q13, q3 .long 0xf3bb6760 // vcvt.s32.f32 q3, q8 .long 0xf35e81f4 // vbsl q12, q15, q10 .long 0xf3bb6646 // vcvt.f32.s32 q3, q3 .long 0xf366ee60 // vcgt.f32 q15, q3, q8 .long 0xf358e172 // vbsl q15, q4, q9 .long 0xf266ed6e // vsub.f32 q15, q3, q15 .long 0xf2602dee // vsub.f32 q9, q8, q15 .long 0xf2c10f58 // vmov.f32 q8, #6 .long 0xf342edf0 // vmul.f32 q15, q9, q8 .long 0xf3420ece // vcge.f32 q8, q9, q7 .long 0xf22c6d6e // vsub.f32 q3, q6, q15 .long 0xf280c050 // vmov.i32 q6, #0 .long 0xf30c6dd6 // vmul.f32 q3, q14, q3 .long 0xf2066dc6 // vadd.f32 q3, q11, q3 .long 0xf35601d6 // vbsl q8, q11, q3 .long 0xf3026eca // vcge.f32 q3, q9, q5 .long 0xf31061f4 // vbsl q3, q8, q10 .long 0xf34c0dfe // vmul.f32 q8, q14, q15 .long 0xf3fbe740 // vcvt.s32.f32 q15, q0 .long 0xf2460de0 // vadd.f32 q8, q11, q8 .long 0xf3fbe66e // vcvt.f32.s32 q15, q15 .long 0xf32eaec0 // vcgt.f32 q5, q15, q0 .long 0xf318a15c // vbsl q5, q4, q6 .long 0xf2818f50 // vmov.f32 q4, #4 .long 0xf26eedca // vsub.f32 q15, q15, q5 .long 0xf260ed6e // vsub.f32 q15, q0, q15 .long 0xf2810f58 // vmov.f32 q0, #6 .long 0xf30e0dd0 // vmul.f32 q0, q15, q0 .long 0xf30eaece // vcge.f32 q5, q15, q7 .long 0xf2288d40 // vsub.f32 q4, q4, q0 .long 0xf30c8dd8 // vmul.f32 q4, q14, q4 .long 0xf2068dc8 // vadd.f32 q4, q11, q4 .long 0xf316a1d8 // vbsl q5, q11, q4 .long 0xf283865f // vmov.i32 q4, #1056964608 .long 0xf30e8ec8 // vcge.f32 q4, q15, q4 .long 0xf31a8174 // vbsl q4, q5, q10 .long 0xf34c4dd0 // vmul.f32 q10, q14, q0 .long 0xf2464de4 // vadd.f32 q10, q11, q10 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf3422ee6 // vcge.f32 q9, q9, q11 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf34aaee6 // vcge.f32 q13, q13, q11 .long 0xf34e6ee6 // vcge.f32 q11, q15, q11 .long 0xf3562170 // vbsl q9, q3, q8 .long 0xecdd0b04 // vldmia sp, {d16-d17} .long 0xf358a1f0 // vbsl q13, q12, q8 .long 0xf3f90542 // vceq.f32 q8, q1, #0 .long 0xec936b04 // vldmia r3, {d6-d7} .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22021f0 // vorr q1, q8, q8 .long 0xf354017a // vbsl q8, q2, q13 .long 0xf3586174 // vbsl q11, q4, q10 .long 0xf3142176 // vbsl q1, q2, q11 .long 0xf3140172 // vbsl q0, q2, q9 .long 0xf22041f0 // vorr q2, q8, q8 .long 0xe28dd028 // add sp, sp, #40 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f2aaaab // .word 0x3f2aaaab .long 0x3f2aaaab // .word 0x3f2aaaab .long 0x3f2aaaab // .word 0x3f2aaaab .long 0x3f2aaaab // .word 0x3f2aaaab .long 0x3eaaaaab // .word 0x3eaaaaab .long 0x3eaaaaab // .word 0x3eaaaaab .long 0x3eaaaaab // .word 0x3eaaaaab .long 0x3eaaaaab // .word 0x3eaaaaab .long 0x3e2aaaab // .word 0x3e2aaaab .long 0x3e2aaaab // .word 0x3e2aaaab .long 0x3e2aaaab // .word 0x3e2aaaab .long 0x3e2aaaab // .word 0x3e2aaaab HIDDEN _sk_scale_1_float_vfp4 .globl _sk_scale_1_float_vfp4 FUNCTION(_sk_scale_1_float_vfp4) _sk_scale_1_float_vfp4: .long 0xe5913000 // ldr r3, [r1] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf4e30cbf // vld1.32 {d16[]-d17[]}, [r3 :32] .long 0xf3000dd0 // vmul.f32 q0, q8, q0 .long 0xf3002dd2 // vmul.f32 q1, q8, q1 .long 0xf3004dd4 // vmul.f32 q2, q8, q2 .long 0xf3006dd6 // vmul.f32 q3, q8, q3 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} HIDDEN _sk_scale_u8_vfp4 .globl _sk_scale_u8_vfp4 FUNCTION(_sk_scale_u8_vfp4) _sk_scale_u8_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0224392 // mla r2, r2, r3, r4 .long 0xe082200e // add r2, r2, lr .long 0x1a000013 // bne 250c .long 0xe5922000 // ldr r2, [r2] .long 0xe58d2000 // str r2, [sp] .long 0xe1a0200d // mov r2, sp .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xf3c80a30 // vmovl.u8 q8, d16 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe28f209c // add r2, pc, #156 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3400df2 // vmul.f32 q8, q8, q9 .long 0xf3000dd0 // vmul.f32 q0, q8, q0 .long 0xf3002dd2 // vmul.f32 q1, q8, q1 .long 0xf3004dd4 // vmul.f32 q2, q8, q2 .long 0xf3006dd6 // vmul.f32 q3, q8, q3 .long 0xe28dd008 // add sp, sp, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000012 // beq 2564 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 253c .long 0xe3530003 // cmp r3, #3 .long 0x1affffe8 // bne 24d0 .long 0xe3a04000 // mov r4, #0 .long 0xe5d23002 // ldrb r3, [r2, #2] .long 0xee804bb0 // vdup.16 d16, r4 .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xe1d220b0 // ldrh r2, [r2] .long 0xe1cd20b4 // strh r2, [sp, #4] .long 0xe28d2004 // add r2, sp, #4 .long 0xf4e2241f // vld1.16 {d18[0]}, [r2 :16] .long 0xf3c82a32 // vmovl.u8 q9, d18 .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3f62124 // vuzp.16 d18, d20 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffda // b 24d0 .long 0xe3a03000 // mov r3, #0 .long 0xe5d22000 // ldrb r2, [r2] .long 0xee803bb0 // vdup.16 d16, r3 .long 0xee002bb0 // vmov.16 d16[0], r2 .long 0xeaffffd5 // b 24d0 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_lerp_1_float_vfp4 .globl _sk_lerp_1_float_vfp4 FUNCTION(_sk_lerp_1_float_vfp4) _sk_lerp_1_float_vfp4: .long 0xe2802030 // add r2, r0, #48 .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xe2802010 // add r2, r0, #16 .long 0xf2648d60 // vsub.f32 q12, q2, q8 .long 0xf4e3ecbf // vld1.32 {d30[]-d31[]}, [r3 :32] .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf260ad62 // vsub.f32 q13, q0, q9 .long 0xf4624aef // vld1.64 {d20-d21}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf262cd64 // vsub.f32 q14, q1, q10 .long 0xf4626aef // vld1.64 {d22-d23}, [r2 :128] .long 0xf2260d66 // vsub.f32 q0, q3, q11 .long 0xf2480cfe // vfma.f32 q8, q12, q15 .long 0xf24c4cfe // vfma.f32 q10, q14, q15 .long 0xf2406c7e // vfma.f32 q11, q0, q15 .long 0xf24a2cfe // vfma.f32 q9, q13, q15 .long 0xf22041f0 // vorr q2, q8, q8 .long 0xf22421f4 // vorr q1, q10, q10 .long 0xf22661f6 // vorr q3, q11, q11 .long 0xf22201f2 // vorr q0, q9, q9 .long 0xe12fff1c // bx ip HIDDEN _sk_lerp_u8_vfp4 .globl _sk_lerp_u8_vfp4 FUNCTION(_sk_lerp_u8_vfp4) _sk_lerp_u8_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0225492 // mla r2, r2, r4, r5 .long 0xe0824003 // add r4, r2, r3 .long 0xe2803020 // add r3, r0, #32 .long 0xe2802010 // add r2, r0, #16 .long 0x1a00001f // bne 26a0 .long 0xe5944000 // ldr r4, [r4] .long 0xe58d4000 // str r4, [sp] .long 0xe1a0400d // mov r4, sp .long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32] .long 0xf3c80a30 // vmovl.u8 q8, d16 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xf4634aef // vld1.64 {d20-d21}, [r3 :128] .long 0xf262cd64 // vsub.f32 q14, q1, q10 .long 0xf3d02a30 // vmovl.u16 q9, d16 .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xf2608d60 // vsub.f32 q12, q0, q8 .long 0xf3fb66e2 // vcvt.f32.u32 q11, q9 .long 0xf46e2aef // vld1.64 {d18-d19}, [lr :128] .long 0xe28f20b4 // add r2, pc, #180 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf264ed62 // vsub.f32 q15, q2, q9 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf346adfa // vmul.f32 q13, q11, q13 .long 0xf46c6aef // vld1.64 {d22-d23}, [ip :128] .long 0xf2260d66 // vsub.f32 q0, q3, q11 .long 0xf24c4cfa // vfma.f32 q10, q14, q13 .long 0xf24e2cfa // vfma.f32 q9, q15, q13 .long 0xf2406c7a // vfma.f32 q11, q0, q13 .long 0xf2480cfa // vfma.f32 q8, q12, q13 .long 0xf22421f4 // vorr q1, q10, q10 .long 0xf22241f2 // vorr q2, q9, q9 .long 0xf22661f6 // vorr q3, q11, q11 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xe28dd008 // add sp, sp, #8 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff12 // bx r2 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a000012 // beq 26f8 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 26d0 .long 0xe3550003 // cmp r5, #3 .long 0x1affffdc // bne 2634 .long 0xe3a06000 // mov r6, #0 .long 0xe5d45002 // ldrb r5, [r4, #2] .long 0xee806bb0 // vdup.16 d16, r6 .long 0xee205bb0 // vmov.16 d16[2], r5 .long 0xe1d440b0 // ldrh r4, [r4] .long 0xe1cd40b4 // strh r4, [sp, #4] .long 0xe28d4004 // add r4, sp, #4 .long 0xf4e4241f // vld1.16 {d18[0]}, [r4 :16] .long 0xf3c82a32 // vmovl.u8 q9, d18 .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3f62124 // vuzp.16 d18, d20 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffce // b 2634 .long 0xe3a05000 // mov r5, #0 .long 0xe5d44000 // ldrb r4, [r4] .long 0xee805bb0 // vdup.16 d16, r5 .long 0xee004bb0 // vmov.16 d16[0], r4 .long 0xeaffffc9 // b 2634 .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_lerp_565_vfp4 .globl _sk_lerp_565_vfp4 FUNCTION(_sk_lerp_565_vfp4) _sk_lerp_565_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe24dd004 // sub sp, sp, #4 .long 0xe5912000 // ldr r2, [r1] .long 0xe280e020 // add lr, r0, #32 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280c010 // add ip, r0, #16 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020492 // mul r2, r2, r4 .long 0xe0852082 // add r2, r5, r2, lsl #1 .long 0xe0824083 // add r4, r2, r3, lsl #1 .long 0xe2803040 // add r3, r0, #64 .long 0xe2802030 // add r2, r0, #48 .long 0x1a00002e // bne 2818 .long 0xf464074f // vld1.16 {d16}, [r4] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe3a04e7e // mov r4, #2016 .long 0xf2c1205f // vmov.i32 q9, #31 .long 0xeea64b90 // vdup.32 q11, r4 .long 0xf3c74258 // vmov.i32 q10, #63488 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf24061f6 // vand q11, q8, q11 .long 0xf24001f4 // vand q8, q8, q10 .long 0xf3fb4666 // vcvt.f32.s32 q10, q11 .long 0xf4636aef // vld1.64 {d22-d23}, [r3 :128] .long 0xe28f30f0 // add r3, pc, #240 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xe28f30f4 // add r3, pc, #244 .long 0xf463cacf // vld1.64 {d28-d29}, [r3] .long 0xf266ad66 // vsub.f32 q13, q3, q11 .long 0xe28f30f8 // add r3, pc, #248 .long 0xf344cdfc // vmul.f32 q14, q10, q14 .long 0xf3428df8 // vmul.f32 q12, q9, q12 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xf26641f6 // vorr q10, q11, q11 .long 0xf22661f6 // vorr q3, q11, q11 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf24a4cf8 // vfma.f32 q10, q13, q12 .long 0xf20a6cfc // vfma.f32 q3, q13, q14 .long 0xf340edf2 // vmul.f32 q15, q8, q9 .long 0xf46e2aef // vld1.64 {d18-d19}, [lr :128] .long 0xf4620aef // vld1.64 {d16-d17}, [r2 :128] .long 0xf2244d60 // vsub.f32 q2, q2, q8 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf24a6cfe // vfma.f32 q11, q13, q15 .long 0xf262ad62 // vsub.f32 q13, q1, q9 .long 0xf2062f64 // vmax.f32 q1, q3, q10 .long 0xf46c4aef // vld1.64 {d20-d21}, [ip :128] .long 0xf2200d64 // vsub.f32 q0, q0, q10 .long 0xf2440c78 // vfma.f32 q8, q2, q12 .long 0xf24a2cfc // vfma.f32 q9, q13, q14 .long 0xf2404c7e // vfma.f32 q10, q0, q15 .long 0xf2066fc2 // vmax.f32 q3, q11, q1 .long 0xf22041f0 // vorr q2, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22401f4 // vorr q0, q10, q10 .long 0xe28dd004 // add sp, sp, #4 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff12 // bx r2 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a000011 // beq 286c .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 2848 .long 0xe3550003 // cmp r5, #3 .long 0x1affffc9 // bne 2760 .long 0xe3a05000 // mov r5, #0 .long 0xee805bb0 // vdup.16 d16, r5 .long 0xe2845004 // add r5, r4, #4 .long 0xf4e5049f // vld1.16 {d16[2]}, [r5 :16] .long 0xe5944000 // ldr r4, [r4] .long 0xe58d4000 // str r4, [sp] .long 0xe1a0400d // mov r4, sp .long 0xf4e4183f // vld1.32 {d17[0]}, [r4 :32] .long 0xf3d02a31 // vmovl.u16 q9, d17 .long 0xf3f62121 // vuzp.16 d18, d17 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffbc // b 2760 .long 0xe3a05000 // mov r5, #0 .long 0xee805bb0 // vdup.16 d16, r5 .long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16] .long 0xeaffffb8 // b 2760 .long 0xe320f000 // nop {0} .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 HIDDEN _sk_load_tables_vfp4 .globl _sk_load_tables_vfp4 FUNCTION(_sk_load_tables_vfp4) _sk_load_tables_vfp4: .long 0xe92d47f0 // push {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe5916000 // ldr r6, [r1] .long 0xe5902000 // ldr r2, [r0] .long 0xe5903008 // ldr r3, [r0, #8] .long 0xe5964000 // ldr r4, [r6] .long 0xe3530000 // cmp r3, #0 .long 0xe084e102 // add lr, r4, r2, lsl #2 .long 0x1a000036 // bne 29ac .long 0xf46e0a8f // vld1.32 {d16-d17}, [lr] .long 0xf3c7405f // vmov.i32 q10, #255 .long 0xe5967004 // ldr r7, [r6, #4] .long 0xf3f02070 // vshr.u32 q9, q8, #16 .long 0xe596200c // ldr r2, [r6, #12] .long 0xf24061f4 // vand q11, q8, q10 .long 0xe5963008 // ldr r3, [r6, #8] .long 0xf24221f4 // vand q9, q9, q10 .long 0xe28f6f42 // add r6, pc, #264 .long 0xf4668acf // vld1.64 {d24-d25}, [r6] .long 0xee375b90 // vmov.32 r5, d23[1] .long 0xee334b90 // vmov.32 r4, d19[1] .long 0xee17eb90 // vmov.32 lr, d23[0] .long 0xee368b90 // vmov.32 r8, d22[1] .long 0xee16ab90 // vmov.32 sl, d22[0] .long 0xf3f86070 // vshr.u32 q11, q8, #8 .long 0xee32cb90 // vmov.32 ip, d18[1] .long 0xf3e80070 // vshr.u32 q8, q8, #24 .long 0xf24641f4 // vand q10, q11, q10 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xee156b90 // vmov.32 r6, d21[0] .long 0xf3006df8 // vmul.f32 q3, q8, q12 .long 0xe0875105 // add r5, r7, r5, lsl #2 .long 0xe0829104 // add r9, r2, r4, lsl #2 .long 0xee354b90 // vmov.32 r4, d21[1] .long 0xedd51a00 // vldr s3, [r5] .long 0xe087510e // add r5, r7, lr, lsl #2 .long 0xedd95a00 // vldr s11, [r9] .long 0xed951a00 // vldr s2, [r5] .long 0xe0875108 // add r5, r7, r8, lsl #2 .long 0xe087710a // add r7, r7, sl, lsl #2 .long 0xe082c10c // add ip, r2, ip, lsl #2 .long 0xedd50a00 // vldr s1, [r5] .long 0xee345b90 // vmov.32 r5, d20[1] .long 0xed970a00 // vldr s0, [r7] .long 0xe0837104 // add r7, r3, r4, lsl #2 .long 0xee144b90 // vmov.32 r4, d20[0] .long 0xedd73a00 // vldr s7, [r7] .long 0xe0837106 // add r7, r3, r6, lsl #2 .long 0xee136b90 // vmov.32 r6, d19[0] .long 0xed973a00 // vldr s6, [r7] .long 0xe0837105 // add r7, r3, r5, lsl #2 .long 0xee125b90 // vmov.32 r5, d18[0] .long 0xedd72a00 // vldr s5, [r7] .long 0xe0833104 // add r3, r3, r4, lsl #2 .long 0xed932a00 // vldr s4, [r3] .long 0xe0823106 // add r3, r2, r6, lsl #2 .long 0xed935a00 // vldr s10, [r3] .long 0xe0822105 // add r2, r2, r5, lsl #2 .long 0xeddc4a00 // vldr s9, [ip] .long 0xed924a00 // vldr s8, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd47f0 // pop {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe12fff12 // bx r2 .long 0xe203c003 // and ip, r3, #3 .long 0xe35c0001 // cmp ip, #1 .long 0x0a00000c // beq 29ec .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe35c0002 // cmp ip, #2 .long 0x0a000005 // beq 29dc .long 0xe35c0003 // cmp ip, #3 .long 0x1affffc1 // bne 28d4 .long 0xe3a02000 // mov r2, #0 .long 0xeea02b90 // vdup.32 q8, r2 .long 0xe28e2008 // add r2, lr, #8 .long 0xf4e2183f // vld1.32 {d17[0]}, [r2 :32] .long 0xedde2b00 // vldr d18, [lr] .long 0xf2f008e2 // vext.8 q8, q8, q9, #8 .long 0xf2f008e0 // vext.8 q8, q8, q8, #8 .long 0xeaffffb9 // b 28d4 .long 0xe3a02000 // mov r2, #0 .long 0xeea02b90 // vdup.32 q8, r2 .long 0xf4ee083f // vld1.32 {d16[0]}, [lr :32] .long 0xeaffffb5 // b 28d4 .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_load_tables_u16_be_vfp4 .globl _sk_load_tables_u16_be_vfp4 FUNCTION(_sk_load_tables_u16_be_vfp4) _sk_load_tables_u16_be_vfp4: .long 0xe92d47f0 // push {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe5918000 // ldr r8, [r1] .long 0xe5903000 // ldr r3, [r0] .long 0xe590e008 // ldr lr, [r0, #8] .long 0xe5982000 // ldr r2, [r8] .long 0xe35e0000 // cmp lr, #0 .long 0xe082c183 // add ip, r2, r3, lsl #3 .long 0x1a000039 // bne 2b18 .long 0xf46c004f // vld4.16 {d16-d19}, [ip] .long 0xf3c72b3f // vbic.i16 d18, #65280 .long 0xe5986004 // ldr r6, [r8, #4] .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe5983008 // ldr r3, [r8, #8] .long 0xe598200c // ldr r2, [r8, #12] .long 0xe28f40f0 // add r4, pc, #240 .long 0xf3d04a32 // vmovl.u16 q10, d18 .long 0xf4646acf // vld1.64 {d22-d23}, [r4] .long 0xf3d08a30 // vmovl.u16 q12, d16 .long 0xf3c71b3f // vbic.i16 d17, #65280 .long 0xf2d80533 // vshl.s16 d16, d19, #8 .long 0xee355b90 // vmov.32 r5, d21[1] .long 0xee397b90 // vmov.32 r7, d25[1] .long 0xee199b90 // vmov.32 r9, d25[0] .long 0xee388b90 // vmov.32 r8, d24[1] .long 0xee18ab90 // vmov.32 sl, d24[0] .long 0xf3d08a31 // vmovl.u16 q12, d17 .long 0xee34cb90 // vmov.32 ip, d20[1] .long 0xe082e105 // add lr, r2, r5, lsl #2 .long 0xee195b90 // vmov.32 r5, d25[0] .long 0xe0864107 // add r4, r6, r7, lsl #2 .long 0xee397b90 // vmov.32 r7, d25[1] .long 0xedde5a00 // vldr s11, [lr] .long 0xedd41a00 // vldr s3, [r4] .long 0xe0864109 // add r4, r6, r9, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xe0864108 // add r4, r6, r8, lsl #2 .long 0xe082c10c // add ip, r2, ip, lsl #2 .long 0xedd40a00 // vldr s1, [r4] .long 0xe086410a // add r4, r6, sl, lsl #2 .long 0xee386b90 // vmov.32 r6, d24[1] .long 0xed940a00 // vldr s0, [r4] .long 0xe0834107 // add r4, r3, r7, lsl #2 .long 0xee187b90 // vmov.32 r7, d24[0] .long 0xf3d88033 // vshr.u16 d24, d19, #8 .long 0xedd43a00 // vldr s7, [r4] .long 0xe0834105 // add r4, r3, r5, lsl #2 .long 0xee155b90 // vmov.32 r5, d21[0] .long 0xf26001b8 // vorr d16, d16, d24 .long 0xed943a00 // vldr s6, [r4] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe0834106 // add r4, r3, r6, lsl #2 .long 0xee146b90 // vmov.32 r6, d20[0] .long 0xedd42a00 // vldr s5, [r4] .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3006df6 // vmul.f32 q3, q8, q11 .long 0xe0833107 // add r3, r3, r7, lsl #2 .long 0xed932a00 // vldr s4, [r3] .long 0xe0823105 // add r3, r2, r5, lsl #2 .long 0xed935a00 // vldr s10, [r3] .long 0xeddc4a00 // vldr s9, [ip] .long 0xe0822106 // add r2, r2, r6, lsl #2 .long 0xed924a00 // vldr s8, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd47f0 // pop {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe12fff12 // bx r2 .long 0xf4ec070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [ip] .long 0xe35e0001 // cmp lr, #1 .long 0x0affffc3 // beq 2a34 .long 0xe28c2008 // add r2, ip, #8 .long 0xe35e0003 // cmp lr, #3 .long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2] .long 0x3affffbf // bcc 2a34 .long 0xe28c2010 // add r2, ip, #16 .long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2] .long 0xeaffffbc // b 2a34 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 HIDDEN _sk_load_tables_rgb_u16_be_vfp4 .globl _sk_load_tables_rgb_u16_be_vfp4 FUNCTION(_sk_load_tables_rgb_u16_be_vfp4) _sk_load_tables_rgb_u16_be_vfp4: .long 0xe92d47f0 // push {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe5903000 // ldr r3, [r0] .long 0xe5918000 // ldr r8, [r1] .long 0xe590e008 // ldr lr, [r0, #8] .long 0xe0833083 // add r3, r3, r3, lsl #1 .long 0xe5982000 // ldr r2, [r8] .long 0xe35e0000 // cmp lr, #0 .long 0xe082c083 // add ip, r2, r3, lsl #1 .long 0x1a000033 // bne 2c44 .long 0xf46c044f // vld3.16 {d16-d18}, [ip] .long 0xf3c72b3f // vbic.i16 d18, #65280 .long 0xe5987004 // ldr r7, [r8, #4] .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe5983008 // ldr r3, [r8, #8] .long 0xe598200c // ldr r2, [r8, #12] .long 0xe28f40dc // add r4, pc, #220 .long 0xf3d04a32 // vmovl.u16 q10, d18 .long 0xf4246acf // vld1.64 {d6-d7}, [r4] .long 0xf3d06a30 // vmovl.u16 q11, d16 .long 0xf3c71b3f // vbic.i16 d17, #65280 .long 0xee355b90 // vmov.32 r5, d21[1] .long 0xee376b90 // vmov.32 r6, d23[1] .long 0xf3d00a31 // vmovl.u16 q8, d17 .long 0xee17eb90 // vmov.32 lr, d23[0] .long 0xee368b90 // vmov.32 r8, d22[1] .long 0xee16ab90 // vmov.32 sl, d22[0] .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xee34cb90 // vmov.32 ip, d20[1] .long 0xe0829105 // add r9, r2, r5, lsl #2 .long 0xe0875106 // add r5, r7, r6, lsl #2 .long 0xee116b90 // vmov.32 r6, d17[0] .long 0xedd95a00 // vldr s11, [r9] .long 0xedd51a00 // vldr s3, [r5] .long 0xe087510e // add r5, r7, lr, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xe0875108 // add r5, r7, r8, lsl #2 .long 0xe087710a // add r7, r7, sl, lsl #2 .long 0xe082c10c // add ip, r2, ip, lsl #2 .long 0xedd50a00 // vldr s1, [r5] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xed970a00 // vldr s0, [r7] .long 0xe0837104 // add r7, r3, r4, lsl #2 .long 0xee104b90 // vmov.32 r4, d16[0] .long 0xedd73a00 // vldr s7, [r7] .long 0xe0837106 // add r7, r3, r6, lsl #2 .long 0xee156b90 // vmov.32 r6, d21[0] .long 0xed973a00 // vldr s6, [r7] .long 0xe0837105 // add r7, r3, r5, lsl #2 .long 0xee145b90 // vmov.32 r5, d20[0] .long 0xedd72a00 // vldr s5, [r7] .long 0xe0833104 // add r3, r3, r4, lsl #2 .long 0xed932a00 // vldr s4, [r3] .long 0xe0823106 // add r3, r2, r6, lsl #2 .long 0xed935a00 // vldr s10, [r3] .long 0xeddc4a00 // vldr s9, [ip] .long 0xe0822105 // add r2, r2, r5, lsl #2 .long 0xed924a00 // vldr s8, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd47f0 // pop {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe12fff12 // bx r2 .long 0xf4ec060f // vld3.16 {d16[0],d17[0],d18[0]}, [ip] .long 0xe35e0001 // cmp lr, #1 .long 0x0affffc9 // beq 2b78 .long 0xe28c2006 // add r2, ip, #6 .long 0xe35e0003 // cmp lr, #3 .long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2] .long 0x3affffc5 // bcc 2b78 .long 0xe28c200c // add r2, ip, #12 .long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2] .long 0xeaffffc2 // b 2b78 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_byte_tables_vfp4 .globl _sk_byte_tables_vfp4 FUNCTION(_sk_byte_tables_vfp4) _sk_byte_tables_vfp4: .long 0xe92d48f0 // push {r4, r5, r6, r7, fp, lr} .long 0xe28f2f55 // add r2, pc, #340 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xf2420c7a // vfma.f32 q8, q1, q13 .long 0xe8911040 // ldm r1, {r6, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xf2468c7a // vfma.f32 q12, q3, q13 .long 0xe8960018 // ldm r6, {r3, r4} .long 0xe5962008 // ldr r2, [r6, #8] .long 0xe596e00c // ldr lr, [r6, #12] .long 0xf3fb27e0 // vcvt.u32.f32 q9, q8 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2400c7a // vfma.f32 q8, q0, q13 .long 0xf3fb87e8 // vcvt.u32.f32 q12, q12 .long 0xee127b90 // vmov.32 r7, d18[0] .long 0xee325b90 // vmov.32 r5, d18[1] .long 0xf3fb47e0 // vcvt.u32.f32 q10, q8 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2440c7a // vfma.f32 q8, q2, q13 .long 0xf3fb67e0 // vcvt.u32.f32 q11, q8 .long 0xe7d46007 // ldrb r6, [r4, r7] .long 0xee147b90 // vmov.32 r7, d20[0] .long 0xe7d45005 // ldrb r5, [r4, r5] .long 0xee006bb0 // vmov.16 d16[0], r6 .long 0xee005bf0 // vmov.16 d16[1], r5 .long 0xe7d36007 // ldrb r6, [r3, r7] .long 0xee167b90 // vmov.32 r7, d22[0] .long 0xee016bb0 // vmov.16 d17[0], r6 .long 0xe7d26007 // ldrb r6, [r2, r7] .long 0xee187b90 // vmov.32 r7, d24[0] .long 0xee0a6bb0 // vmov.16 d26[0], r6 .long 0xe7de6007 // ldrb r6, [lr, r7] .long 0xee347b90 // vmov.32 r7, d20[1] .long 0xee0b6bb0 // vmov.16 d27[0], r6 .long 0xee176b90 // vmov.32 r6, d23[0] .long 0xe7d35007 // ldrb r5, [r3, r7] .long 0xee367b90 // vmov.32 r7, d22[1] .long 0xee015bf0 // vmov.16 d17[1], r5 .long 0xe7d25006 // ldrb r5, [r2, r6] .long 0xe7d26007 // ldrb r6, [r2, r7] .long 0xee387b90 // vmov.32 r7, d24[1] .long 0xee0a6bf0 // vmov.16 d26[1], r6 .long 0xee2a5bb0 // vmov.16 d26[2], r5 .long 0xee195b90 // vmov.32 r5, d25[0] .long 0xe7de6007 // ldrb r6, [lr, r7] .long 0xee157b90 // vmov.32 r7, d21[0] .long 0xee0b6bf0 // vmov.16 d27[1], r6 .long 0xe7de5005 // ldrb r5, [lr, r5] .long 0xee2b5bb0 // vmov.16 d27[2], r5 .long 0xe7d36007 // ldrb r6, [r3, r7] .long 0xee137b90 // vmov.32 r7, d19[0] .long 0xee216bb0 // vmov.16 d17[2], r6 .long 0xe7d46007 // ldrb r6, [r4, r7] .long 0xee337b90 // vmov.32 r7, d19[1] .long 0xee206bb0 // vmov.16 d16[2], r6 .long 0xee356b90 // vmov.32 r6, d21[1] .long 0xe7d44007 // ldrb r4, [r4, r7] .long 0xee397b90 // vmov.32 r7, d25[1] .long 0xee204bf0 // vmov.16 d16[3], r4 .long 0xe7d33006 // ldrb r3, [r3, r6] .long 0xee376b90 // vmov.32 r6, d23[1] .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xee213bf0 // vmov.16 d17[3], r3 .long 0xf3c71b3f // vbic.i16 d17, #65280 .long 0xf3d02a31 // vmovl.u16 q9, d17 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3fb26e2 // vcvt.f32.u32 q9, q9 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xe7de3007 // ldrb r3, [lr, r7] .long 0xee2b3bf0 // vmov.16 d27[3], r3 .long 0xe7d22006 // ldrb r2, [r2, r6] .long 0xf3c7bb3f // vbic.i16 d27, #65280 .long 0xee2a2bf0 // vmov.16 d26[3], r2 .long 0xf3d06a3b // vmovl.u16 q11, d27 .long 0xe28f2038 // add r2, pc, #56 .long 0xf3c7ab3f // vbic.i16 d26, #65280 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xf3fb66e6 // vcvt.f32.u32 q11, q11 .long 0xf3d04a3a // vmovl.u16 q10, d26 .long 0xf3020df8 // vmul.f32 q0, q9, q12 .long 0xf3002df8 // vmul.f32 q1, q8, q12 .long 0xf3fb46e4 // vcvt.f32.u32 q10, q10 .long 0xf3066df8 // vmul.f32 q3, q11, q12 .long 0xf3044df8 // vmul.f32 q2, q10, q12 .long 0xe8bd48f0 // pop {r4, r5, r6, r7, fp, lr} .long 0xe12fff1c // bx ip .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_byte_tables_rgb_vfp4 .globl _sk_byte_tables_rgb_vfp4 FUNCTION(_sk_byte_tables_rgb_vfp4) _sk_byte_tables_rgb_vfp4: .long 0xe92d48f0 // push {r4, r5, r6, r7, fp, lr} .long 0xe8911010 // ldm r1, {r4, ip} .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xe2811008 // add r1, r1, #8 .long 0xe5943000 // ldr r3, [r4] .long 0xe9944004 // ldmib r4, {r2, lr} .long 0xe594400c // ldr r4, [r4, #12] .long 0xe2444001 // sub r4, r4, #1 .long 0xeea04b90 // vdup.32 q8, r4 .long 0xf3fb4660 // vcvt.f32.s32 q10, q8 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2440c74 // vfma.f32 q8, q2, q10 .long 0xf2422c74 // vfma.f32 q9, q1, q10 .long 0xf2406c74 // vfma.f32 q11, q0, q10 .long 0xf3fb07e0 // vcvt.u32.f32 q8, q8 .long 0xf3fb27e2 // vcvt.u32.f32 q9, q9 .long 0xf3fb47e6 // vcvt.u32.f32 q10, q11 .long 0xee104b90 // vmov.32 r4, d16[0] .long 0xee317b90 // vmov.32 r7, d17[1] .long 0xee125b90 // vmov.32 r5, d18[0] .long 0xee146b90 // vmov.32 r6, d20[0] .long 0xe7de4004 // ldrb r4, [lr, r4] .long 0xe7de7007 // ldrb r7, [lr, r7] .long 0xe7d25005 // ldrb r5, [r2, r5] .long 0xee074bb0 // vmov.16 d23[0], r4 .long 0xe7d34006 // ldrb r4, [r3, r6] .long 0xee065bb0 // vmov.16 d22[0], r5 .long 0xee155b90 // vmov.32 r5, d21[0] .long 0xee346b90 // vmov.32 r6, d20[1] .long 0xee084bb0 // vmov.16 d24[0], r4 .long 0xe7d34005 // ldrb r4, [r3, r5] .long 0xe7d35006 // ldrb r5, [r3, r6] .long 0xee326b90 // vmov.32 r6, d18[1] .long 0xee085bf0 // vmov.16 d24[1], r5 .long 0xee284bb0 // vmov.16 d24[2], r4 .long 0xee134b90 // vmov.32 r4, d19[0] .long 0xe7d25006 // ldrb r5, [r2, r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xee065bf0 // vmov.16 d22[1], r5 .long 0xe7d24004 // ldrb r4, [r2, r4] .long 0xee264bb0 // vmov.16 d22[2], r4 .long 0xe7de5006 // ldrb r5, [lr, r6] .long 0xee356b90 // vmov.32 r6, d21[1] .long 0xee075bf0 // vmov.16 d23[1], r5 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe7d33006 // ldrb r3, [r3, r6] .long 0xee336b90 // vmov.32 r6, d19[1] .long 0xee283bf0 // vmov.16 d24[3], r3 .long 0xe7de5005 // ldrb r5, [lr, r5] .long 0xf3c78b3f // vbic.i16 d24, #65280 .long 0xee275bb0 // vmov.16 d23[2], r5 .long 0xf3d00a38 // vmovl.u16 q8, d24 .long 0xee277bf0 // vmov.16 d23[3], r7 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3c77b3f // vbic.i16 d23, #65280 .long 0xf3d04a37 // vmovl.u16 q10, d23 .long 0xf3fb46e4 // vcvt.f32.u32 q10, q10 .long 0xe7d22006 // ldrb r2, [r2, r6] .long 0xee262bf0 // vmov.16 d22[3], r2 .long 0xe28f2020 // add r2, pc, #32 .long 0xf3c76b3f // vbic.i16 d22, #65280 .long 0xf3d02a36 // vmovl.u16 q9, d22 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf3000df6 // vmul.f32 q0, q8, q11 .long 0xf3fb26e2 // vcvt.f32.u32 q9, q9 .long 0xf3044df6 // vmul.f32 q2, q10, q11 .long 0xf3022df6 // vmul.f32 q1, q9, q11 .long 0xe8bd48f0 // pop {r4, r5, r6, r7, fp, lr} .long 0xe12fff1c // bx ip .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_table_r_vfp4 .globl _sk_table_r_vfp4 FUNCTION(_sk_table_r_vfp4) _sk_table_r_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xe2811008 // add r1, r1, #8 .long 0xe893000c // ldm r3, {r2, r3} .long 0xe2433001 // sub r3, r3, #1 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf2402c70 // vfma.f32 q9, q0, q8 .long 0xf3fb07e2 // vcvt.u32.f32 q8, q9 .long 0xee313b90 // vmov.32 r3, d17[1] .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xee30eb90 // vmov.32 lr, d16[1] .long 0xee106b90 // vmov.32 r6, d16[0] .long 0xe0823103 // add r3, r2, r3, lsl #2 .long 0xedd31a00 // vldr s3, [r3] .long 0xe0823104 // add r3, r2, r4, lsl #2 .long 0xe082510e // add r5, r2, lr, lsl #2 .long 0xe0822106 // add r2, r2, r6, lsl #2 .long 0xed931a00 // vldr s2, [r3] .long 0xedd50a00 // vldr s1, [r5] .long 0xed920a00 // vldr s0, [r2] .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_table_g_vfp4 .globl _sk_table_g_vfp4 FUNCTION(_sk_table_g_vfp4) _sk_table_g_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xe2811008 // add r1, r1, #8 .long 0xe893000c // ldm r3, {r2, r3} .long 0xe2433001 // sub r3, r3, #1 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf2422c70 // vfma.f32 q9, q1, q8 .long 0xf3fb07e2 // vcvt.u32.f32 q8, q9 .long 0xee313b90 // vmov.32 r3, d17[1] .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xee30eb90 // vmov.32 lr, d16[1] .long 0xee106b90 // vmov.32 r6, d16[0] .long 0xe0823103 // add r3, r2, r3, lsl #2 .long 0xedd33a00 // vldr s7, [r3] .long 0xe0823104 // add r3, r2, r4, lsl #2 .long 0xe082510e // add r5, r2, lr, lsl #2 .long 0xe0822106 // add r2, r2, r6, lsl #2 .long 0xed933a00 // vldr s6, [r3] .long 0xedd52a00 // vldr s5, [r5] .long 0xed922a00 // vldr s4, [r2] .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_table_b_vfp4 .globl _sk_table_b_vfp4 FUNCTION(_sk_table_b_vfp4) _sk_table_b_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xe2811008 // add r1, r1, #8 .long 0xe893000c // ldm r3, {r2, r3} .long 0xe2433001 // sub r3, r3, #1 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf2442c70 // vfma.f32 q9, q2, q8 .long 0xf3fb07e2 // vcvt.u32.f32 q8, q9 .long 0xee313b90 // vmov.32 r3, d17[1] .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xee30eb90 // vmov.32 lr, d16[1] .long 0xee106b90 // vmov.32 r6, d16[0] .long 0xe0823103 // add r3, r2, r3, lsl #2 .long 0xedd35a00 // vldr s11, [r3] .long 0xe0823104 // add r3, r2, r4, lsl #2 .long 0xe082510e // add r5, r2, lr, lsl #2 .long 0xe0822106 // add r2, r2, r6, lsl #2 .long 0xed935a00 // vldr s10, [r3] .long 0xedd54a00 // vldr s9, [r5] .long 0xed924a00 // vldr s8, [r2] .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_table_a_vfp4 .globl _sk_table_a_vfp4 FUNCTION(_sk_table_a_vfp4) _sk_table_a_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xe2811008 // add r1, r1, #8 .long 0xe893000c // ldm r3, {r2, r3} .long 0xe2433001 // sub r3, r3, #1 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf2462c70 // vfma.f32 q9, q3, q8 .long 0xf3fb07e2 // vcvt.u32.f32 q8, q9 .long 0xee313b90 // vmov.32 r3, d17[1] .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xee30eb90 // vmov.32 lr, d16[1] .long 0xee106b90 // vmov.32 r6, d16[0] .long 0xe0823103 // add r3, r2, r3, lsl #2 .long 0xedd37a00 // vldr s15, [r3] .long 0xe0823104 // add r3, r2, r4, lsl #2 .long 0xe082510e // add r5, r2, lr, lsl #2 .long 0xe0822106 // add r2, r2, r6, lsl #2 .long 0xed937a00 // vldr s14, [r3] .long 0xedd56a00 // vldr s13, [r5] .long 0xed926a00 // vldr s12, [r2] .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_parametric_r_vfp4 .globl _sk_parametric_r_vfp4 FUNCTION(_sk_parametric_r_vfp4) _sk_parametric_r_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xe8911004 // ldm r1, {r2, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xed9fca65 // vldr s24, [pc, #404] .long 0xe1a03002 // mov r3, r2 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823008 // add r3, r2, #8 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf2424cd0 // vfma.f32 q10, q9, q0 .long 0xf2c72d5f // vmov.i32 q9, #8388607 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf24421f2 // vand q9, q10, q9 .long 0xf2c3275f // vorr.i32 q9, #1056964608 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf202ade6 // vadd.f32 q5, q9, q11 .long 0xf2c36654 // vmov.i32 q11, #872415232 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30fc // add r3, pc, #252 .long 0xeecc9a2b // vdiv.f32 s19, s24, s23 .long 0xee8c9a0b // vdiv.f32 s18, s24, s22 .long 0xeecc8a2a // vdiv.f32 s17, s24, s21 .long 0xee8c8a0a // vdiv.f32 s16, s24, s20 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf2444de8 // vadd.f32 q10, q10, q12 .long 0xe28f30ec // add r3, pc, #236 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xe28f30f4 // add r3, pc, #244 .long 0xed9faa49 // vldr s20, [pc, #292] .long 0xf2642de2 // vsub.f32 q9, q10, q9 .long 0xf2622dc8 // vsub.f32 q9, q9, q4 .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf3fb0762 // vcvt.s32.f32 q8, q9 .long 0xf3fb4660 // vcvt.f32.s32 q10, q8 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xf3646ee2 // vcgt.f32 q11, q10, q9 .long 0xf35861f0 // vbsl q11, q12, q8 .long 0xf2644de6 // vsub.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf2624de4 // vsub.f32 q10, q9, q10 .long 0xf226cde4 // vsub.f32 q6, q11, q10 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf2422de6 // vadd.f32 q9, q9, q11 .long 0xe282300c // add r3, r2, #12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xeeca9a2d // vdiv.f32 s19, s20, s27 .long 0xee8a9a0d // vdiv.f32 s18, s20, s26 .long 0xeeca8a2c // vdiv.f32 s17, s20, s25 .long 0xee8a8a0c // vdiv.f32 s16, s20, s24 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2c4465b // vmov.i32 q10, #1258291200 .long 0xf2422dc8 // vadd.f32 q9, q9, q4 .long 0xf2426cf4 // vfma.f32 q11, q9, q10 .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823018 // add r3, r2, #24 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe2823010 // add r3, r2, #16 .long 0xf2424cd0 // vfma.f32 q10, q9, q0 .long 0xe2822014 // add r2, r2, #20 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3fb27e6 // vcvt.u32.f32 q9, q11 .long 0xf4e36cbf // vld1.32 {d22[]-d23[]}, [r3 :32] .long 0xf3466ec0 // vcge.f32 q11, q11, q0 .long 0xf2482de2 // vadd.f32 q9, q12, q9 .long 0xf35461f2 // vbsl q11, q10, q9 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2460fe0 // vmax.f32 q8, q11, q8 .long 0xf2200fe2 // vmin.f32 q0, q8, q9 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff1c // bx ip .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fdce9a3 // .word 0x3fdce9a3 .long 0x41ddd2fe // .word 0x41ddd2fe HIDDEN _sk_parametric_g_vfp4 .globl _sk_parametric_g_vfp4 FUNCTION(_sk_parametric_g_vfp4) _sk_parametric_g_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xe8911004 // ldm r1, {r2, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xed9fca65 // vldr s24, [pc, #404] .long 0xe1a03002 // mov r3, r2 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823008 // add r3, r2, #8 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf2424cd2 // vfma.f32 q10, q9, q1 .long 0xf2c72d5f // vmov.i32 q9, #8388607 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf24421f2 // vand q9, q10, q9 .long 0xf2c3275f // vorr.i32 q9, #1056964608 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf202ade6 // vadd.f32 q5, q9, q11 .long 0xf2c36654 // vmov.i32 q11, #872415232 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30fc // add r3, pc, #252 .long 0xeecc9a2b // vdiv.f32 s19, s24, s23 .long 0xee8c9a0b // vdiv.f32 s18, s24, s22 .long 0xeecc8a2a // vdiv.f32 s17, s24, s21 .long 0xee8c8a0a // vdiv.f32 s16, s24, s20 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf2444de8 // vadd.f32 q10, q10, q12 .long 0xe28f30ec // add r3, pc, #236 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xe28f30f4 // add r3, pc, #244 .long 0xed9faa49 // vldr s20, [pc, #292] .long 0xf2642de2 // vsub.f32 q9, q10, q9 .long 0xf2622dc8 // vsub.f32 q9, q9, q4 .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf3fb0762 // vcvt.s32.f32 q8, q9 .long 0xf3fb4660 // vcvt.f32.s32 q10, q8 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xf3646ee2 // vcgt.f32 q11, q10, q9 .long 0xf35861f0 // vbsl q11, q12, q8 .long 0xf2644de6 // vsub.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf2624de4 // vsub.f32 q10, q9, q10 .long 0xf226cde4 // vsub.f32 q6, q11, q10 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf2422de6 // vadd.f32 q9, q9, q11 .long 0xe282300c // add r3, r2, #12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xeeca9a2d // vdiv.f32 s19, s20, s27 .long 0xee8a9a0d // vdiv.f32 s18, s20, s26 .long 0xeeca8a2c // vdiv.f32 s17, s20, s25 .long 0xee8a8a0c // vdiv.f32 s16, s20, s24 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2c4465b // vmov.i32 q10, #1258291200 .long 0xf2422dc8 // vadd.f32 q9, q9, q4 .long 0xf2426cf4 // vfma.f32 q11, q9, q10 .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823018 // add r3, r2, #24 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe2823010 // add r3, r2, #16 .long 0xf2424cd2 // vfma.f32 q10, q9, q1 .long 0xe2822014 // add r2, r2, #20 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3fb27e6 // vcvt.u32.f32 q9, q11 .long 0xf4e36cbf // vld1.32 {d22[]-d23[]}, [r3 :32] .long 0xf3466ec2 // vcge.f32 q11, q11, q1 .long 0xf2482de2 // vadd.f32 q9, q12, q9 .long 0xf35461f2 // vbsl q11, q10, q9 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2460fe0 // vmax.f32 q8, q11, q8 .long 0xf2202fe2 // vmin.f32 q1, q8, q9 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff1c // bx ip .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fdce9a3 // .word 0x3fdce9a3 .long 0x41ddd2fe // .word 0x41ddd2fe HIDDEN _sk_parametric_b_vfp4 .globl _sk_parametric_b_vfp4 FUNCTION(_sk_parametric_b_vfp4) _sk_parametric_b_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xe8911004 // ldm r1, {r2, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xed9fca65 // vldr s24, [pc, #404] .long 0xe1a03002 // mov r3, r2 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823008 // add r3, r2, #8 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf2424cd4 // vfma.f32 q10, q9, q2 .long 0xf2c72d5f // vmov.i32 q9, #8388607 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf24421f2 // vand q9, q10, q9 .long 0xf2c3275f // vorr.i32 q9, #1056964608 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf202ade6 // vadd.f32 q5, q9, q11 .long 0xf2c36654 // vmov.i32 q11, #872415232 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30fc // add r3, pc, #252 .long 0xeecc9a2b // vdiv.f32 s19, s24, s23 .long 0xee8c9a0b // vdiv.f32 s18, s24, s22 .long 0xeecc8a2a // vdiv.f32 s17, s24, s21 .long 0xee8c8a0a // vdiv.f32 s16, s24, s20 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf2444de8 // vadd.f32 q10, q10, q12 .long 0xe28f30ec // add r3, pc, #236 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xe28f30f4 // add r3, pc, #244 .long 0xed9faa49 // vldr s20, [pc, #292] .long 0xf2642de2 // vsub.f32 q9, q10, q9 .long 0xf2622dc8 // vsub.f32 q9, q9, q4 .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf3fb0762 // vcvt.s32.f32 q8, q9 .long 0xf3fb4660 // vcvt.f32.s32 q10, q8 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xf3646ee2 // vcgt.f32 q11, q10, q9 .long 0xf35861f0 // vbsl q11, q12, q8 .long 0xf2644de6 // vsub.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf2624de4 // vsub.f32 q10, q9, q10 .long 0xf226cde4 // vsub.f32 q6, q11, q10 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf2422de6 // vadd.f32 q9, q9, q11 .long 0xe282300c // add r3, r2, #12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xeeca9a2d // vdiv.f32 s19, s20, s27 .long 0xee8a9a0d // vdiv.f32 s18, s20, s26 .long 0xeeca8a2c // vdiv.f32 s17, s20, s25 .long 0xee8a8a0c // vdiv.f32 s16, s20, s24 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2c4465b // vmov.i32 q10, #1258291200 .long 0xf2422dc8 // vadd.f32 q9, q9, q4 .long 0xf2426cf4 // vfma.f32 q11, q9, q10 .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823018 // add r3, r2, #24 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe2823010 // add r3, r2, #16 .long 0xf2424cd4 // vfma.f32 q10, q9, q2 .long 0xe2822014 // add r2, r2, #20 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3fb27e6 // vcvt.u32.f32 q9, q11 .long 0xf4e36cbf // vld1.32 {d22[]-d23[]}, [r3 :32] .long 0xf3466ec4 // vcge.f32 q11, q11, q2 .long 0xf2482de2 // vadd.f32 q9, q12, q9 .long 0xf35461f2 // vbsl q11, q10, q9 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2460fe0 // vmax.f32 q8, q11, q8 .long 0xf2204fe2 // vmin.f32 q2, q8, q9 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff1c // bx ip .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fdce9a3 // .word 0x3fdce9a3 .long 0x41ddd2fe // .word 0x41ddd2fe HIDDEN _sk_parametric_a_vfp4 .globl _sk_parametric_a_vfp4 FUNCTION(_sk_parametric_a_vfp4) _sk_parametric_a_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xe8911004 // ldm r1, {r2, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xed9fca65 // vldr s24, [pc, #404] .long 0xe1a03002 // mov r3, r2 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823008 // add r3, r2, #8 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf2424cd6 // vfma.f32 q10, q9, q3 .long 0xf2c72d5f // vmov.i32 q9, #8388607 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f3f43 // add r3, pc, #268 .long 0xf24421f2 // vand q9, q10, q9 .long 0xf2c3275f // vorr.i32 q9, #1056964608 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf202ade6 // vadd.f32 q5, q9, q11 .long 0xf2c36654 // vmov.i32 q11, #872415232 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30fc // add r3, pc, #252 .long 0xeecc9a2b // vdiv.f32 s19, s24, s23 .long 0xee8c9a0b // vdiv.f32 s18, s24, s22 .long 0xeecc8a2a // vdiv.f32 s17, s24, s21 .long 0xee8c8a0a // vdiv.f32 s16, s24, s20 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf2444de8 // vadd.f32 q10, q10, q12 .long 0xe28f30ec // add r3, pc, #236 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xe28f30f4 // add r3, pc, #244 .long 0xed9faa49 // vldr s20, [pc, #292] .long 0xf2642de2 // vsub.f32 q9, q10, q9 .long 0xf2622dc8 // vsub.f32 q9, q9, q4 .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf3fb0762 // vcvt.s32.f32 q8, q9 .long 0xf3fb4660 // vcvt.f32.s32 q10, q8 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xf3646ee2 // vcgt.f32 q11, q10, q9 .long 0xf35861f0 // vbsl q11, q12, q8 .long 0xf2644de6 // vsub.f32 q10, q10, q11 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf2624de4 // vsub.f32 q10, q9, q10 .long 0xf226cde4 // vsub.f32 q6, q11, q10 .long 0xf4636acf // vld1.64 {d22-d23}, [r3] .long 0xe28f30d4 // add r3, pc, #212 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf2422de6 // vadd.f32 q9, q9, q11 .long 0xe282300c // add r3, r2, #12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xeeca9a2d // vdiv.f32 s19, s20, s27 .long 0xee8a9a0d // vdiv.f32 s18, s20, s26 .long 0xeeca8a2c // vdiv.f32 s17, s20, s25 .long 0xee8a8a0c // vdiv.f32 s16, s20, s24 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2c4465b // vmov.i32 q10, #1258291200 .long 0xf2422dc8 // vadd.f32 q9, q9, q4 .long 0xf2426cf4 // vfma.f32 q11, q9, q10 .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe2823018 // add r3, r2, #24 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe2823010 // add r3, r2, #16 .long 0xf2424cd6 // vfma.f32 q10, q9, q3 .long 0xe2822014 // add r2, r2, #20 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3fb27e6 // vcvt.u32.f32 q9, q11 .long 0xf4e36cbf // vld1.32 {d22[]-d23[]}, [r3 :32] .long 0xf3466ec6 // vcge.f32 q11, q11, q3 .long 0xf2482de2 // vadd.f32 q9, q12, q9 .long 0xf35461f2 // vbsl q11, q10, q9 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2460fe0 // vmax.f32 q8, q11, q8 .long 0xf2206fe2 // vmin.f32 q3, q8, q9 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff1c // bx ip .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fdce9a3 // .word 0x3fdce9a3 .long 0x41ddd2fe // .word 0x41ddd2fe HIDDEN _sk_gamma_vfp4 .globl _sk_gamma_vfp4 FUNCTION(_sk_gamma_vfp4) _sk_gamma_vfp4: .long 0xe92d0030 // push {r4, r5} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd038 // sub sp, sp, #56 .long 0xf2c70d5f // vmov.i32 q8, #8388607 .long 0xe28d4020 // add r4, sp, #32 .long 0xed9fcaa7 // vldr s24, [pc, #668] .long 0xf3fb2644 // vcvt.f32.s32 q9, q2 .long 0xec846b04 // vstmia r4, {d6-d7} .long 0xe28f2e22 // add r2, pc, #544 .long 0xf2440170 // vand q8, q2, q8 .long 0xe28d4010 // add r4, sp, #16 .long 0xf2c3075f // vorr.i32 q8, #1056964608 .long 0xf422aacf // vld1.64 {d10-d11}, [r2] .long 0xf2c34654 // vmov.i32 q10, #872415232 .long 0xe28f2f86 // add r2, pc, #536 .long 0xf2006dca // vadd.f32 q3, q8, q5 .long 0xf462cacf // vld1.64 {d28-d29}, [r2] .long 0xe28f2f87 // add r2, pc, #540 .long 0xf3422df4 // vmul.f32 q9, q9, q10 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf3400dfc // vmul.f32 q8, q8, q14 .long 0xe5913000 // ldr r3, [r1] .long 0xf2c76d5f // vmov.i32 q11, #8388607 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf280e050 // vmov.i32 q7, #0 .long 0xeecc5a27 // vdiv.f32 s11, s24, s15 .long 0xe2811008 // add r1, r1, #8 .long 0xf4e3ecbf // vld1.32 {d30[]-d31[]}, [r3 :32] .long 0xe28f3c02 // add r3, pc, #512 .long 0xf2422dea // vadd.f32 q9, q9, q13 .long 0xee8c5a07 // vdiv.f32 s10, s24, s14 .long 0xeecc4a26 // vdiv.f32 s9, s24, s13 .long 0xee8c4a06 // vdiv.f32 s8, s24, s12 .long 0xf2620de0 // vsub.f32 q8, q9, q8 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xed9f6a8a // vldr s12, [pc, #552] .long 0xeeb07a4c // vmov.f32 s14, s24 .long 0xf2600dc4 // vsub.f32 q8, q8, q2 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf3402dfe // vmul.f32 q9, q8, q15 .long 0xf3fb0762 // vcvt.s32.f32 q8, q9 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3604ee2 // vcgt.f32 q10, q8, q9 .long 0xf35841d4 // vbsl q10, q12, q2 .long 0xf2600de4 // vsub.f32 q8, q8, q10 .long 0xf2620de0 // vsub.f32 q8, q9, q8 .long 0xecc40b04 // vstmia r4, {d16-d17} .long 0xe28f3f71 // add r3, pc, #452 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xf2248de0 // vsub.f32 q4, q10, q8 .long 0xf2420176 // vand q8, q1, q11 .long 0xf2c3075f // vorr.i32 q8, #1056964608 .long 0xf3fb6642 // vcvt.f32.s32 q11, q1 .long 0xeec65a29 // vdiv.f32 s11, s12, s19 .long 0xee865a09 // vdiv.f32 s10, s12, s18 .long 0xec8d8b04 // vstmia sp, {d8-d9} .long 0xf2832654 // vmov.i32 q1, #872415232 .long 0xe28f3f6b // add r3, pc, #428 .long 0xeec64a28 // vdiv.f32 s9, s12, s17 .long 0xf2008dca // vadd.f32 q4, q8, q5 .long 0xf3466dd2 // vmul.f32 q11, q11, q1 .long 0xf3400dfc // vmul.f32 q8, q8, q14 .long 0xeec7da29 // vdiv.f32 s27, s14, s19 .long 0xee87da09 // vdiv.f32 s26, s14, s18 .long 0xeec7ca28 // vdiv.f32 s25, s14, s17 .long 0xee87ca08 // vdiv.f32 s24, s14, s16 .long 0xf2466dea // vadd.f32 q11, q11, q13 .long 0xf2660de0 // vsub.f32 q8, q11, q8 .long 0xf2600dcc // vsub.f32 q8, q8, q6 .long 0xf3406dfe // vmul.f32 q11, q8, q15 .long 0xf3fb0766 // vcvt.s32.f32 q8, q11 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3202ee6 // vcgt.f32 q1, q8, q11 .long 0xf31821de // vbsl q1, q12, q7 .long 0xf220e150 // vorr q7, q0, q0 .long 0xf2600dc2 // vsub.f32 q8, q8, q1 .long 0xf2870d5f // vmov.i32 q0, #8388607 .long 0xf20e0150 // vand q0, q7, q0 .long 0xf226cde0 // vsub.f32 q6, q11, q8 .long 0xf4630acf // vld1.64 {d16-d17}, [r3] .long 0xe28f3e16 // add r3, pc, #352 .long 0xf283075f // vorr.i32 q0, #1056964608 .long 0xf200ad4a // vadd.f32 q5, q0, q5 .long 0xf2248dcc // vsub.f32 q4, q10, q6 .long 0xf30ccd70 // vmul.f32 q6, q6, q8 .long 0xf340cd7c // vmul.f32 q14, q0, q14 .long 0xf3bb064e // vcvt.f32.s32 q0, q7 .long 0xeec63a29 // vdiv.f32 s7, s12, s19 .long 0xee863a09 // vdiv.f32 s6, s12, s18 .long 0xeec62a28 // vdiv.f32 s5, s12, s17 .long 0xee862a08 // vdiv.f32 s4, s12, s16 .long 0xf4238acf // vld1.64 {d8-d9}, [r3] .long 0xe28d3010 // add r3, sp, #16 .long 0xf2466dc8 // vadd.f32 q11, q11, q4 .long 0xf2422dc8 // vadd.f32 q9, q9, q4 .long 0xf2666dcc // vsub.f32 q11, q11, q6 .long 0xeec7da2b // vdiv.f32 s27, s14, s23 .long 0xee87da0b // vdiv.f32 s26, s14, s22 .long 0xeec7ca2a // vdiv.f32 s25, s14, s21 .long 0xee87ca0a // vdiv.f32 s24, s14, s20 .long 0xf283a654 // vmov.i32 q5, #872415232 .long 0xf3000d5a // vmul.f32 q0, q0, q5 .long 0xf240ad6a // vadd.f32 q13, q0, q13 .long 0xf2800050 // vmov.i32 q0, #0 .long 0xf26aadec // vsub.f32 q13, q13, q14 .long 0xf26aadcc // vsub.f32 q13, q13, q6 .long 0xf34aadfe // vmul.f32 q13, q13, q15 .long 0xf3fbc76a // vcvt.s32.f32 q14, q13 .long 0xf3fbc66c // vcvt.f32.s32 q14, q14 .long 0xf36ceeea // vcgt.f32 q15, q14, q13 .long 0xf358e1d0 // vbsl q15, q12, q0 .long 0xf26c8dee // vsub.f32 q12, q14, q15 .long 0xf26a8de8 // vsub.f32 q12, q13, q12 .long 0xf2240de8 // vsub.f32 q0, q10, q12 .long 0xf3484df0 // vmul.f32 q10, q12, q8 .long 0xf24a8dc8 // vadd.f32 q12, q13, q4 .long 0xf2c3a65f // vmov.i32 q13, #1056964608 .long 0xeec6da21 // vdiv.f32 s27, s12, s3 .long 0xee86da01 // vdiv.f32 s26, s12, s2 .long 0xeec6ca20 // vdiv.f32 s25, s12, s1 .long 0xee86ca00 // vdiv.f32 s24, s12, s0 .long 0xec9d0b04 // vldmia sp, {d0-d1} .long 0xf2684de4 // vsub.f32 q10, q12, q10 .long 0xee864a00 // vdiv.f32 s8, s12, s0 .long 0xecd38b04 // vldmia r3, {d24-d25} .long 0xe28d3020 // add r3, sp, #32 .long 0xf3480df0 // vmul.f32 q8, q12, q8 .long 0xec936b04 // vldmia r3, {d6-d7} .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xf2620de0 // vsub.f32 q8, q9, q8 .long 0xf2442dcc // vadd.f32 q9, q10, q6 .long 0xf2464dc2 // vadd.f32 q10, q11, q1 .long 0xf2400dc4 // vadd.f32 q8, q8, q2 .long 0xf2c4665b // vmov.i32 q11, #1258291200 .long 0xf242acf6 // vfma.f32 q13, q9, q11 .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xf2442cf6 // vfma.f32 q9, q10, q11 .long 0xf2408cf6 // vfma.f32 q12, q8, q11 .long 0xf3bb07ea // vcvt.u32.f32 q0, q13 .long 0xf3bb27e2 // vcvt.u32.f32 q1, q9 .long 0xf3bb47e8 // vcvt.u32.f32 q2, q12 .long 0xe28dd038 // add sp, sp, #56 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd0030 // pop {r4, r5} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3eb444f9 // .word 0x3eb444f9 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0x3fbfbf75 // .word 0x3fbfbf75 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0xc2f87377 // .word 0xc2f87377 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x409af5f8 // .word 0x409af5f8 .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x3fbebc8d // .word 0x3fbebc8d .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x42f28c51 // .word 0x42f28c51 .long 0x3fdce9a3 // .word 0x3fdce9a3 .long 0x41ddd2fe // .word 0x41ddd2fe HIDDEN _sk_lab_to_xyz_vfp4 .globl _sk_lab_to_xyz_vfp4 FUNCTION(_sk_lab_to_xyz_vfp4) _sk_lab_to_xyz_vfp4: .long 0xed2d8b04 // vpush {d8-d9} .long 0xe28f20dc // add r2, pc, #220 .long 0xf3c46653 // vmov.i32 q11, #-1023410176 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f20e0 // add r2, pc, #224 .long 0xf2c38f50 // vmov.f32 q12, #16 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf3424d70 // vmul.f32 q10, q1, q8 .long 0xf3440d70 // vmul.f32 q8, q2, q8 .long 0xe28f20dc // add r2, pc, #220 .long 0xf3402d72 // vmul.f32 q9, q0, q9 .long 0xf2444de6 // vadd.f32 q10, q10, q11 .long 0xf2422de8 // vadd.f32 q9, q9, q12 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f20d8 // add r2, pc, #216 .long 0xf2400de6 // vadd.f32 q8, q8, q11 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f20dc // add r2, pc, #220 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf3444dfa // vmul.f32 q10, q10, q13 .long 0xf3422df8 // vmul.f32 q9, q9, q12 .long 0xe28f20dc // add r2, pc, #220 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f20e4 // add r2, pc, #228 .long 0xf3400df6 // vmul.f32 q8, q8, q11 .long 0xf4228acf // vld1.64 {d8-d9}, [r2] .long 0xe28f20e8 // add r2, pc, #232 .long 0xf2424de4 // vadd.f32 q10, q9, q10 .long 0xf2620de0 // vsub.f32 q8, q9, q8 .long 0xf3428df2 // vmul.f32 q12, q9, q9 .long 0xf244edea // vadd.f32 q15, q10, q13 .long 0xf3446df4 // vmul.f32 q11, q10, q10 .long 0xf340cdf0 // vmul.f32 q14, q8, q8 .long 0xf3428df8 // vmul.f32 q12, q9, q12 .long 0xf2422dea // vadd.f32 q9, q9, q13 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf2406dea // vadd.f32 q11, q8, q13 .long 0xf3400dfc // vmul.f32 q8, q8, q14 .long 0xf462cacf // vld1.64 {d28-d29}, [r2] .long 0xf34eedd8 // vmul.f32 q15, q15, q4 .long 0xe28f20c0 // add r2, pc, #192 .long 0xf3240eec // vcgt.f32 q0, q10, q14 .long 0xf3282eec // vcgt.f32 q1, q12, q14 .long 0xf360aeec // vcgt.f32 q13, q8, q14 .long 0xf3466dd8 // vmul.f32 q11, q11, q4 .long 0xf31401fe // vbsl q0, q10, q15 .long 0xf4624acf // vld1.64 {d20-d21}, [r2] .long 0xe28f20b4 // add r2, pc, #180 .long 0xf350a1f6 // vbsl q13, q8, q11 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xf3000d74 // vmul.f32 q0, q0, q10 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf30a4df0 // vmul.f32 q2, q13, q8 .long 0xf3420dd8 // vmul.f32 q8, q9, q4 .long 0xf31821f0 // vbsl q1, q12, q8 .long 0xecbd8b04 // vpop {d8-d9} .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x42c80000 // .word 0x42c80000 .long 0x42c80000 // .word 0x42c80000 .long 0x42c80000 // .word 0x42c80000 .long 0x42c80000 // .word 0x42c80000 .long 0x3c0d3dcb // .word 0x3c0d3dcb .long 0x3c0d3dcb // .word 0x3c0d3dcb .long 0x3c0d3dcb // .word 0x3c0d3dcb .long 0x3c0d3dcb // .word 0x3c0d3dcb .long 0x3b03126f // .word 0x3b03126f .long 0x3b03126f // .word 0x3b03126f .long 0x3b03126f // .word 0x3b03126f .long 0x3b03126f // .word 0x3b03126f .long 0x3ba3d70a // .word 0x3ba3d70a .long 0x3ba3d70a // .word 0x3ba3d70a .long 0x3ba3d70a // .word 0x3ba3d70a .long 0x3ba3d70a // .word 0x3ba3d70a .long 0xbe0d3dcb // .word 0xbe0d3dcb .long 0xbe0d3dcb // .word 0xbe0d3dcb .long 0xbe0d3dcb // .word 0xbe0d3dcb .long 0xbe0d3dcb // .word 0xbe0d3dcb .long 0x3e038050 // .word 0x3e038050 .long 0x3e038050 // .word 0x3e038050 .long 0x3e038050 // .word 0x3e038050 .long 0x3e038050 // .word 0x3e038050 .long 0x3c1118c2 // .word 0x3c1118c2 .long 0x3c1118c2 // .word 0x3c1118c2 .long 0x3c1118c2 // .word 0x3c1118c2 .long 0x3c1118c2 // .word 0x3c1118c2 .long 0x3f76d71f // .word 0x3f76d71f .long 0x3f76d71f // .word 0x3f76d71f .long 0x3f76d71f // .word 0x3f76d71f .long 0x3f76d71f // .word 0x3f76d71f .long 0x3f5340f6 // .word 0x3f5340f6 .long 0x3f5340f6 // .word 0x3f5340f6 .long 0x3f5340f6 // .word 0x3f5340f6 .long 0x3f5340f6 // .word 0x3f5340f6 HIDDEN _sk_load_a8_vfp4 .globl _sk_load_a8_vfp4 FUNCTION(_sk_load_a8_vfp4) _sk_load_a8_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0224392 // mla r2, r2, r3, r4 .long 0xe082200e // add r2, r2, lr .long 0x1a000012 // bne 3c28 .long 0xe5922000 // ldr r2, [r2] .long 0xe58d2000 // str r2, [sp] .long 0xe1a0200d // mov r2, sp .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xf3c80a30 // vmovl.u8 q8, d16 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe28f209c // add r2, pc, #156 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf2800050 // vmov.i32 q0, #0 .long 0xf2802050 // vmov.i32 q1, #0 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3006df2 // vmul.f32 q3, q8, q9 .long 0xe28dd008 // add sp, sp, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000012 // beq 3c80 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 3c58 .long 0xe3530003 // cmp r3, #3 .long 0x1affffe9 // bne 3bf0 .long 0xe3a04000 // mov r4, #0 .long 0xe5d23002 // ldrb r3, [r2, #2] .long 0xee804bb0 // vdup.16 d16, r4 .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xe1d220b0 // ldrh r2, [r2] .long 0xe1cd20b4 // strh r2, [sp, #4] .long 0xe28d2004 // add r2, sp, #4 .long 0xf4e2241f // vld1.16 {d18[0]}, [r2 :16] .long 0xf3c82a32 // vmovl.u8 q9, d18 .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3f62124 // vuzp.16 d18, d20 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffdb // b 3bf0 .long 0xe3a03000 // mov r3, #0 .long 0xe5d22000 // ldrb r2, [r2] .long 0xee803bb0 // vdup.16 d16, r3 .long 0xee002bb0 // vmov.16 d16[0], r2 .long 0xeaffffd6 // b 3bf0 .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_load_a8_dst_vfp4 .globl _sk_load_a8_dst_vfp4 FUNCTION(_sk_load_a8_dst_vfp4) _sk_load_a8_dst_vfp4: .long 0xe92d4830 // push {r4, r5, fp, lr} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe5913000 // ldr r3, [r1] .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe590c000 // ldr ip, [r0] .long 0xe2805030 // add r5, r0, #48 .long 0xe9904004 // ldmib r0, {r2, lr} .long 0xe5934000 // ldr r4, [r3] .long 0xe35e0000 // cmp lr, #0 .long 0xe5933004 // ldr r3, [r3, #4] .long 0xf4450aef // vst1.64 {d16-d17}, [r5 :128] .long 0xe0224293 // mla r2, r3, r2, r4 .long 0xe2803020 // add r3, r0, #32 .long 0xf4430aef // vst1.64 {d16-d17}, [r3 :128] .long 0xe2803010 // add r3, r0, #16 .long 0xf4430aef // vst1.64 {d16-d17}, [r3 :128] .long 0xe082300c // add r3, r2, ip .long 0xe280c040 // add ip, r0, #64 .long 0x1a000011 // bne 3d3c .long 0xe5932000 // ldr r2, [r3] .long 0xe58d2000 // str r2, [sp] .long 0xe1a0200d // mov r2, sp .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xf3c80a30 // vmovl.u8 q8, d16 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe28f2094 // add r2, pc, #148 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3400df2 // vmul.f32 q8, q8, q9 .long 0xf44c0aef // vst1.64 {d16-d17}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe28dd008 // add sp, sp, #8 .long 0xe8bd4830 // pop {r4, r5, fp, lr} .long 0xe12fff13 // bx r3 .long 0xe20e2003 // and r2, lr, #3 .long 0xe3520001 // cmp r2, #1 .long 0x0a000012 // beq 3d94 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3520002 // cmp r2, #2 .long 0x0a000005 // beq 3d6c .long 0xe3520003 // cmp r2, #3 .long 0x1affffea // bne 3d08 .long 0xe3a05000 // mov r5, #0 .long 0xe5d32002 // ldrb r2, [r3, #2] .long 0xee805bb0 // vdup.16 d16, r5 .long 0xee202bb0 // vmov.16 d16[2], r2 .long 0xe1d320b0 // ldrh r2, [r3] .long 0xe1cd20b4 // strh r2, [sp, #4] .long 0xe28d2004 // add r2, sp, #4 .long 0xf4e2241f // vld1.16 {d18[0]}, [r2 :16] .long 0xf3c82a32 // vmovl.u8 q9, d18 .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3f62124 // vuzp.16 d18, d20 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffdc // b 3d08 .long 0xe5d32000 // ldrb r2, [r3] .long 0xe3a03000 // mov r3, #0 .long 0xee803bb0 // vdup.16 d16, r3 .long 0xee002bb0 // vmov.16 d16[0], r2 .long 0xeaffffd7 // b 3d08 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_gather_a8_vfp4 .globl _sk_gather_a8_vfp4 FUNCTION(_sk_gather_a8_vfp4) _sk_gather_a8_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4932004 // ldr r2, [r3], #4 .long 0xf2800050 // vmov.i32 q0, #0 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf2802050 // vmov.i32 q1, #0 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xee123b90 // vmov.32 r3, d18[0] .long 0xee32eb90 // vmov.32 lr, d18[1] .long 0xee134b90 // vmov.32 r4, d19[0] .long 0xee336b90 // vmov.32 r6, d19[1] .long 0xe7d23003 // ldrb r3, [r2, r3] .long 0xe7d2500e // ldrb r5, [r2, lr] .long 0xee003bb0 // vmov.16 d16[0], r3 .long 0xe7d23004 // ldrb r3, [r2, r4] .long 0xe7d22006 // ldrb r2, [r2, r6] .long 0xee005bf0 // vmov.16 d16[1], r5 .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xee202bf0 // vmov.16 d16[3], r2 .long 0xe28f201c // add r2, pc, #28 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3006df2 // vmul.f32 q3, q8, q9 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff1c // bx ip .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_store_a8_vfp4 .globl _sk_store_a8_vfp4 FUNCTION(_sk_store_a8_vfp4) _sk_store_a8_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe28f2094 // add r2, pc, #148 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf2460c72 // vfma.f32 q8, q3, q9 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xf3fb07e0 // vcvt.u32.f32 q8, q8 .long 0xe0224392 // mla r2, r2, r3, r4 .long 0xe082200e // add r2, r2, lr .long 0xf3f60220 // vmovn.i32 d16, q8 .long 0x1a000005 // bne 3ea0 .long 0xf3f20121 // vuzp.8 d16, d17 .long 0xf4c2080f // vst1.32 {d16[0]}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a00000a // beq 3ed8 .long 0xe3530002 // cmp r3, #2 .long 0x0a000003 // beq 3ec4 .long 0xe3530003 // cmp r3, #3 .long 0x1afffff4 // bne 3e90 .long 0xeeb03bb0 // vmov.u16 r3, d16[2] .long 0xe5c23002 // strb r3, [r2, #2] .long 0xee903bf0 // vmov.u16 r3, d16[1] .long 0xee904bb0 // vmov.u16 r4, d16[0] .long 0xe5c23001 // strb r3, [r2, #1] .long 0xe5c24000 // strb r4, [r2] .long 0xeaffffed // b 3e90 .long 0xee903bb0 // vmov.u16 r3, d16[0] .long 0xe5c23000 // strb r3, [r2] .long 0xeaffffea // b 3e90 .long 0xe320f000 // nop {0} .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 HIDDEN _sk_load_g8_vfp4 .globl _sk_load_g8_vfp4 FUNCTION(_sk_load_g8_vfp4) _sk_load_g8_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0224392 // mla r2, r2, r3, r4 .long 0xe082200e // add r2, r2, lr .long 0x1a000013 // bne 3f74 .long 0xe5922000 // ldr r2, [r2] .long 0xe58d2000 // str r2, [sp] .long 0xe1a0200d // mov r2, sp .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xf3c80a30 // vmovl.u8 q8, d16 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe28f209c // add r2, pc, #156 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe28f20a4 // add r2, pc, #164 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3000df2 // vmul.f32 q0, q8, q9 .long 0xf2202150 // vorr q1, q0, q0 .long 0xf2204150 // vorr q2, q0, q0 .long 0xe28dd008 // add sp, sp, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000012 // beq 3fcc .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 3fa4 .long 0xe3530003 // cmp r3, #3 .long 0x1affffe8 // bne 3f38 .long 0xe3a04000 // mov r4, #0 .long 0xe5d23002 // ldrb r3, [r2, #2] .long 0xee804bb0 // vdup.16 d16, r4 .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xe1d220b0 // ldrh r2, [r2] .long 0xe1cd20b4 // strh r2, [sp, #4] .long 0xe28d2004 // add r2, sp, #4 .long 0xf4e2241f // vld1.16 {d18[0]}, [r2 :16] .long 0xf3c82a32 // vmovl.u8 q9, d18 .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3f62124 // vuzp.16 d18, d20 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffda // b 3f38 .long 0xe3a03000 // mov r3, #0 .long 0xe5d22000 // ldrb r2, [r2] .long 0xee803bb0 // vdup.16 d16, r3 .long 0xee002bb0 // vmov.16 d16[0], r2 .long 0xeaffffd5 // b 3f38 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_load_g8_dst_vfp4 .globl _sk_load_g8_dst_vfp4 FUNCTION(_sk_load_g8_dst_vfp4) _sk_load_g8_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0225492 // mla r2, r2, r4, r5 .long 0xe0824003 // add r4, r2, r3 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a000015 // bne 4090 .long 0xe5944000 // ldr r4, [r4] .long 0xe58d4000 // str r4, [sp] .long 0xe1a0400d // mov r4, sp .long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32] .long 0xf3c80a30 // vmovl.u8 q8, d16 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xe28f40a8 // add r4, pc, #168 .long 0xf4642acf // vld1.64 {d18-d19}, [r4] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3400df2 // vmul.f32 q8, q8, q9 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf44e0aef // vst1.64 {d16-d17}, [lr :128] .long 0xf4420aef // vst1.64 {d16-d17}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf4430aef // vst1.64 {d16-d17}, [r3 :128] .long 0xf44c2aef // vst1.64 {d18-d19}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe28dd008 // add sp, sp, #8 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a000012 // beq 40e8 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 40c0 .long 0xe3550003 // cmp r5, #3 .long 0x1affffe6 // bne 404c .long 0xe3a06000 // mov r6, #0 .long 0xe5d45002 // ldrb r5, [r4, #2] .long 0xee806bb0 // vdup.16 d16, r6 .long 0xee205bb0 // vmov.16 d16[2], r5 .long 0xe1d440b0 // ldrh r4, [r4] .long 0xe1cd40b4 // strh r4, [sp, #4] .long 0xe28d4004 // add r4, sp, #4 .long 0xf4e4241f // vld1.16 {d18[0]}, [r4 :16] .long 0xf3c82a32 // vmovl.u8 q9, d18 .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3f62124 // vuzp.16 d18, d20 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffd8 // b 404c .long 0xe3a05000 // mov r5, #0 .long 0xe5d44000 // ldrb r4, [r4] .long 0xee805bb0 // vdup.16 d16, r5 .long 0xee004bb0 // vmov.16 d16[0], r4 .long 0xeaffffd3 // b 404c .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_gather_g8_vfp4 .globl _sk_gather_g8_vfp4 FUNCTION(_sk_gather_g8_vfp4) _sk_gather_g8_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4932004 // ldr r2, [r3], #4 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xee123b90 // vmov.32 r3, d18[0] .long 0xee32eb90 // vmov.32 lr, d18[1] .long 0xee134b90 // vmov.32 r4, d19[0] .long 0xee336b90 // vmov.32 r6, d19[1] .long 0xe7d23003 // ldrb r3, [r2, r3] .long 0xe7d2500e // ldrb r5, [r2, lr] .long 0xee003bb0 // vmov.16 d16[0], r3 .long 0xe7d23004 // ldrb r3, [r2, r4] .long 0xe7d22006 // ldrb r2, [r2, r6] .long 0xee005bf0 // vmov.16 d16[1], r5 .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xee202bf0 // vmov.16 d16[3], r2 .long 0xe28f2028 // add r2, pc, #40 .long 0xf3c70b3f // vbic.i16 d16, #65280 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe28f202c // add r2, pc, #44 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3000df2 // vmul.f32 q0, q8, q9 .long 0xf2202150 // vorr q1, q0, q0 .long 0xf2204150 // vorr q2, q0, q0 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff1c // bx ip .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_load_565_vfp4 .globl _sk_load_565_vfp4 FUNCTION(_sk_load_565_vfp4) _sk_load_565_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe24dd004 // sub sp, sp, #4 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xe082208e // add r2, r2, lr, lsl #1 .long 0x1a00001b // bne 4250 .long 0xf462074f // vld1.16 {d16}, [r2] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe3a02e7e // mov r2, #2016 .long 0xf3c74258 // vmov.i32 q10, #63488 .long 0xeea22b90 // vdup.32 q9, r2 .long 0xf2c1605f // vmov.i32 q11, #31 .long 0xe28f20b8 // add r2, pc, #184 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf24041f4 // vand q10, q8, q10 .long 0xf24001f6 // vand q8, q8, q11 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xe28f20b0 // add r2, pc, #176 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f20b8 // add r2, pc, #184 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f20bc // add r2, pc, #188 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xf3040df6 // vmul.f32 q0, q10, q11 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf3022df8 // vmul.f32 q1, q9, q12 .long 0xe2811008 // add r1, r1, #8 .long 0xf3004dfa // vmul.f32 q2, q8, q13 .long 0xe28dd004 // add sp, sp, #4 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000011 // beq 42a4 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 4280 .long 0xe3530003 // cmp r3, #3 .long 0x1affffdc // bne 41e4 .long 0xe3a03000 // mov r3, #0 .long 0xee803bb0 // vdup.16 d16, r3 .long 0xe2823004 // add r3, r2, #4 .long 0xf4e3049f // vld1.16 {d16[2]}, [r3 :16] .long 0xe5922000 // ldr r2, [r2] .long 0xe58d2000 // str r2, [sp] .long 0xe1a0200d // mov r2, sp .long 0xf4e2183f // vld1.32 {d17[0]}, [r2 :32] .long 0xf3d02a31 // vmovl.u16 q9, d17 .long 0xf3f62121 // vuzp.16 d18, d17 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffcf // b 41e4 .long 0xe3a03000 // mov r3, #0 .long 0xee803bb0 // vdup.16 d16, r3 .long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16] .long 0xeaffffcb // b 41e4 .long 0xe320f000 // nop {0} .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_load_565_dst_vfp4 .globl _sk_load_565_dst_vfp4 FUNCTION(_sk_load_565_dst_vfp4) _sk_load_565_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe24dd004 // sub sp, sp, #4 .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020492 // mul r2, r2, r4 .long 0xe0852082 // add r2, r5, r2, lsl #1 .long 0xe0824083 // add r4, r2, r3, lsl #1 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a00001f // bne 43b4 .long 0xf464074f // vld1.16 {d16}, [r4] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe3a04e7e // mov r4, #2016 .long 0xf3c72258 // vmov.i32 q9, #63488 .long 0xeea44b90 // vdup.32 q10, r4 .long 0xf2c1605f // vmov.i32 q11, #31 .long 0xe28f40c4 // add r4, pc, #196 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf24041f4 // vand q10, q8, q10 .long 0xf24001f6 // vand q8, q8, q11 .long 0xf4646acf // vld1.64 {d22-d23}, [r4] .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xe28f40bc // add r4, pc, #188 .long 0xf4648acf // vld1.64 {d24-d25}, [r4] .long 0xe28f40c4 // add r4, pc, #196 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf4646acf // vld1.64 {d22-d23}, [r4] .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf3400df6 // vmul.f32 q8, q8, q11 .long 0xf2c76f50 // vmov.f32 q11, #1 .long 0xf4432aef // vst1.64 {d18-d19}, [r3 :128] .long 0xf4424aef // vst1.64 {d20-d21}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf44e0aef // vst1.64 {d16-d17}, [lr :128] .long 0xf44c6aef // vst1.64 {d22-d23}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe28dd004 // add sp, sp, #4 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a000011 // beq 4408 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 43e4 .long 0xe3550003 // cmp r5, #3 .long 0x1affffd8 // bne 4338 .long 0xe3a05000 // mov r5, #0 .long 0xee805bb0 // vdup.16 d16, r5 .long 0xe2845004 // add r5, r4, #4 .long 0xf4e5049f // vld1.16 {d16[2]}, [r5 :16] .long 0xe5944000 // ldr r4, [r4] .long 0xe58d4000 // str r4, [sp] .long 0xe1a0400d // mov r4, sp .long 0xf4e4183f // vld1.32 {d17[0]}, [r4 :32] .long 0xf3d02a31 // vmovl.u16 q9, d17 .long 0xf3f62121 // vuzp.16 d18, d17 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffcb // b 4338 .long 0xe3a05000 // mov r5, #0 .long 0xee805bb0 // vdup.16 d16, r5 .long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16] .long 0xeaffffc7 // b 4338 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 HIDDEN _sk_gather_565_vfp4 .globl _sk_gather_565_vfp4 FUNCTION(_sk_gather_565_vfp4) _sk_gather_565_vfp4: .long 0xe92d4830 // push {r4, r5, fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4932004 // ldr r2, [r3], #4 .long 0xf2c1605f // vmov.i32 q11, #31 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xf3c74258 // vmov.i32 q10, #63488 .long 0xee123b90 // vmov.32 r3, d18[0] .long 0xee324b90 // vmov.32 r4, d18[1] .long 0xee13eb90 // vmov.32 lr, d19[0] .long 0xee335b90 // vmov.32 r5, d19[1] .long 0xe0823083 // add r3, r2, r3, lsl #1 .long 0xe0824084 // add r4, r2, r4, lsl #1 .long 0xf4e3041f // vld1.16 {d16[0]}, [r3 :16] .long 0xe082308e // add r3, r2, lr, lsl #1 .long 0xe0822085 // add r2, r2, r5, lsl #1 .long 0xf4e4045f // vld1.16 {d16[1]}, [r4 :16] .long 0xe1d330b0 // ldrh r3, [r3] .long 0xe1d220b0 // ldrh r2, [r2] .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xee202bf0 // vmov.16 d16[3], r2 .long 0xe3a02e7e // mov r2, #2016 .long 0xeea22b90 // vdup.32 q9, r2 .long 0xe28f2048 // add r2, pc, #72 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf24041f4 // vand q10, q8, q10 .long 0xf24001f6 // vand q8, q8, q11 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xe28f203c // add r2, pc, #60 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f2044 // add r2, pc, #68 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f2048 // add r2, pc, #72 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xf3040df6 // vmul.f32 q0, q10, q11 .long 0xf3022df8 // vmul.f32 q1, q9, q12 .long 0xf3004dfa // vmul.f32 q2, q8, q13 .long 0xe8bd4830 // pop {r4, r5, fp, lr} .long 0xe12fff1c // bx ip .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x37842108 // .word 0x37842108 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3a020821 // .word 0x3a020821 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3d042108 // .word 0x3d042108 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_store_565_vfp4 .globl _sk_store_565_vfp4 FUNCTION(_sk_store_565_vfp4) _sk_store_565_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe28f20c4 // add r2, pc, #196 .long 0xf2c30f5f // vmov.f32 q8, #31 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xf2404c70 // vfma.f32 q10, q0, q8 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xf2428c76 // vfma.f32 q12, q1, q11 .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xe5924000 // ldr r4, [r2] .long 0xf2442c70 // vfma.f32 q9, q2, q8 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe35c0000 // cmp ip, #0 .long 0xe0020392 // mul r2, r2, r3 .long 0xf3fb07e4 // vcvt.u32.f32 q8, q10 .long 0xf3fb47e8 // vcvt.u32.f32 q10, q12 .long 0xf3fb27e2 // vcvt.u32.f32 q9, q9 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xe082208e // add r2, r2, lr, lsl #1 .long 0xf2eb0570 // vshl.s32 q8, q8, #11 .long 0xf2e54574 // vshl.s32 q10, q10, #5 .long 0xf26401f0 // vorr q8, q10, q8 .long 0xf26001f2 // vorr q8, q8, q9 .long 0xf3f60220 // vmovn.i32 d16, q8 .long 0x1a000004 // bne 45c4 .long 0xf442074f // vst1.16 {d16}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a00000c // beq 4604 .long 0xe3530002 // cmp r3, #2 .long 0x0a000003 // beq 45e8 .long 0xe3530003 // cmp r3, #3 .long 0x1afffff4 // bne 45b4 .long 0xe2823004 // add r3, r2, #4 .long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16] .long 0xee903bb0 // vmov.u16 r3, d16[0] .long 0xee904bf0 // vmov.u16 r4, d16[1] .long 0xee003b90 // vmov.32 d16[0], r3 .long 0xee204b90 // vmov.32 d16[1], r4 .long 0xf3f60121 // vuzp.16 d16, d17 .long 0xf4c2080f // vst1.32 {d16[0]}, [r2] .long 0xeaffffeb // b 45b4 .long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16] .long 0xeaffffe9 // b 45b4 .long 0xe320f000 // nop {0} .long 0x427c0000 // .word 0x427c0000 .long 0x427c0000 // .word 0x427c0000 .long 0x427c0000 // .word 0x427c0000 .long 0x427c0000 // .word 0x427c0000 HIDDEN _sk_load_4444_vfp4 .globl _sk_load_4444_vfp4 FUNCTION(_sk_load_4444_vfp4) _sk_load_4444_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe24dd004 // sub sp, sp, #4 .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xe082208e // add r2, r2, lr, lsl #1 .long 0x1a00001e // bne 46cc .long 0xf462074f // vld1.16 {d16}, [r2] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe28f20d0 // add r2, pc, #208 .long 0xf3c72250 // vmov.i32 q9, #61440 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf3c74050 // vmov.i32 q10, #240 .long 0xe28f20d0 // add r2, pc, #208 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf2c0625f // vmov.i32 q11, #3840 .long 0xf2c0805f // vmov.i32 q12, #15 .long 0xf24041f4 // vand q10, q8, q10 .long 0xf24061f6 // vand q11, q8, q11 .long 0xf24001f8 // vand q8, q8, q12 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xe28f20bc // add r2, pc, #188 .long 0xf462cacf // vld1.64 {d28-d29}, [r2] .long 0xe28f20c4 // add r2, pc, #196 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3020df8 // vmul.f32 q0, q9, q12 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf3062dfc // vmul.f32 q1, q11, q14 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf3044dfa // vmul.f32 q2, q10, q13 .long 0xf3006df2 // vmul.f32 q3, q8, q9 .long 0xe2811008 // add r1, r1, #8 .long 0xe28dd004 // add sp, sp, #4 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000011 // beq 4720 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 46fc .long 0xe3530003 // cmp r3, #3 .long 0x1affffd9 // bne 4654 .long 0xe3a03000 // mov r3, #0 .long 0xee803bb0 // vdup.16 d16, r3 .long 0xe2823004 // add r3, r2, #4 .long 0xf4e3049f // vld1.16 {d16[2]}, [r3 :16] .long 0xe5922000 // ldr r2, [r2] .long 0xe58d2000 // str r2, [sp] .long 0xe1a0200d // mov r2, sp .long 0xf4e2183f // vld1.32 {d17[0]}, [r2 :32] .long 0xf3d02a31 // vmovl.u16 q9, d17 .long 0xf3f62121 // vuzp.16 d18, d17 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffcc // b 4654 .long 0xe3a03000 // mov r3, #0 .long 0xee803bb0 // vdup.16 d16, r3 .long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16] .long 0xeaffffc8 // b 4654 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 HIDDEN _sk_load_4444_dst_vfp4 .globl _sk_load_4444_dst_vfp4 FUNCTION(_sk_load_4444_dst_vfp4) _sk_load_4444_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe24dd004 // sub sp, sp, #4 .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020492 // mul r2, r2, r4 .long 0xe0852082 // add r2, r5, r2, lsl #1 .long 0xe0824083 // add r4, r2, r3, lsl #1 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a000023 // bne 483c .long 0xf464074f // vld1.16 {d16}, [r4] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe28f40e4 // add r4, pc, #228 .long 0xf3c72250 // vmov.i32 q9, #61440 .long 0xf464aacf // vld1.64 {d26-d27}, [r4] .long 0xf2c0425f // vmov.i32 q10, #3840 .long 0xe28f40e4 // add r4, pc, #228 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf24041f4 // vand q10, q8, q10 .long 0xf3c76050 // vmov.i32 q11, #240 .long 0xf2c0805f // vmov.i32 q12, #15 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf24061f6 // vand q11, q8, q11 .long 0xf24001f8 // vand q8, q8, q12 .long 0xf4648acf // vld1.64 {d24-d25}, [r4] .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xe28f40cc // add r4, pc, #204 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3422dfa // vmul.f32 q9, q9, q13 .long 0xf464aacf // vld1.64 {d26-d27}, [r4] .long 0xe28f40c8 // add r4, pc, #200 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf4648acf // vld1.64 {d24-d25}, [r4] .long 0xf3466dfa // vmul.f32 q11, q11, q13 .long 0xf3400df8 // vmul.f32 q8, q8, q12 .long 0xf4432aef // vst1.64 {d18-d19}, [r3 :128] .long 0xf4424aef // vst1.64 {d20-d21}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf44e6aef // vst1.64 {d22-d23}, [lr :128] .long 0xf44c0aef // vst1.64 {d16-d17}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe28dd004 // add sp, sp, #4 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a000011 // beq 4890 .long 0xf2c00010 // vmov.i32 d16, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 486c .long 0xe3550003 // cmp r5, #3 .long 0x1affffd4 // bne 47b0 .long 0xe3a05000 // mov r5, #0 .long 0xee805bb0 // vdup.16 d16, r5 .long 0xe2845004 // add r5, r4, #4 .long 0xf4e5049f // vld1.16 {d16[2]}, [r5 :16] .long 0xe5944000 // ldr r4, [r4] .long 0xe58d4000 // str r4, [sp] .long 0xe1a0400d // mov r4, sp .long 0xf4e4183f // vld1.32 {d17[0]}, [r4 :32] .long 0xf3d02a31 // vmovl.u16 q9, d17 .long 0xf3f62121 // vuzp.16 d18, d17 .long 0xf2f004a2 // vext.8 d16, d16, d18, #4 .long 0xf2f004a0 // vext.8 d16, d16, d16, #4 .long 0xeaffffc7 // b 47b0 .long 0xe3a05000 // mov r5, #0 .long 0xee805bb0 // vdup.16 d16, r5 .long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16] .long 0xeaffffc3 // b 47b0 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 HIDDEN _sk_gather_4444_vfp4 .globl _sk_gather_4444_vfp4 FUNCTION(_sk_gather_4444_vfp4) _sk_gather_4444_vfp4: .long 0xe92d4830 // push {r4, r5, fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4932004 // ldr r2, [r3], #4 .long 0xf2c0625f // vmov.i32 q11, #3840 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf2c0805f // vmov.i32 q12, #15 .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xf3c74050 // vmov.i32 q10, #240 .long 0xee123b90 // vmov.32 r3, d18[0] .long 0xee324b90 // vmov.32 r4, d18[1] .long 0xee13eb90 // vmov.32 lr, d19[0] .long 0xee335b90 // vmov.32 r5, d19[1] .long 0xf3c72250 // vmov.i32 q9, #61440 .long 0xe0823083 // add r3, r2, r3, lsl #1 .long 0xe0824084 // add r4, r2, r4, lsl #1 .long 0xf4e3041f // vld1.16 {d16[0]}, [r3 :16] .long 0xe082308e // add r3, r2, lr, lsl #1 .long 0xe0822085 // add r2, r2, r5, lsl #1 .long 0xf4e4045f // vld1.16 {d16[1]}, [r4 :16] .long 0xe1d330b0 // ldrh r3, [r3] .long 0xe1d220b0 // ldrh r2, [r2] .long 0xee203bb0 // vmov.16 d16[2], r3 .long 0xee202bf0 // vmov.16 d16[3], r2 .long 0xe28f2058 // add r2, pc, #88 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xe28f2060 // add r2, pc, #96 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf24021f2 // vand q9, q8, q9 .long 0xf24041f4 // vand q10, q8, q10 .long 0xf24061f6 // vand q11, q8, q11 .long 0xf24001f8 // vand q8, q8, q12 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xe28f2050 // add r2, pc, #80 .long 0xf462cacf // vld1.64 {d28-d29}, [r2] .long 0xe28f2058 // add r2, pc, #88 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3020df8 // vmul.f32 q0, q9, q12 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf3062dfc // vmul.f32 q1, q11, q14 .long 0xf3044dfa // vmul.f32 q2, q10, q13 .long 0xf3006df2 // vmul.f32 q3, q8, q9 .long 0xe8bd4830 // pop {r4, r5, fp, lr} .long 0xe12fff1c // bx ip .long 0xe320f000 // nop {0} .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x3b888889 // .word 0x3b888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x37888889 // .word 0x37888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x39888889 // .word 0x39888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 .long 0x3d888889 // .word 0x3d888889 HIDDEN _sk_store_4444_vfp4 .globl _sk_store_4444_vfp4 FUNCTION(_sk_store_4444_vfp4) _sk_store_4444_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xf2c20f5e // vmov.f32 q8, #15 .long 0xe5912000 // ldr r2, [r1] .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xe590e000 // ldr lr, [r0] .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xf2404c70 // vfma.f32 q10, q0, q8 .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xf2426c70 // vfma.f32 q11, q1, q8 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xf2448c70 // vfma.f32 q12, q2, q8 .long 0xe0020392 // mul r2, r2, r3 .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xf2462c70 // vfma.f32 q9, q3, q8 .long 0xf3fb07e4 // vcvt.u32.f32 q8, q10 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xf3fb47e6 // vcvt.u32.f32 q10, q11 .long 0xe082208e // add r2, r2, lr, lsl #1 .long 0xf3fb67e8 // vcvt.u32.f32 q11, q12 .long 0xf2ec0570 // vshl.s32 q8, q8, #12 .long 0xf3fb27e2 // vcvt.u32.f32 q9, q9 .long 0xf2e84574 // vshl.s32 q10, q10, #8 .long 0xf2e46576 // vshl.s32 q11, q11, #4 .long 0xf26401f0 // vorr q8, q10, q8 .long 0xf26001f6 // vorr q8, q8, q11 .long 0xf26001f2 // vorr q8, q8, q9 .long 0xf3f60220 // vmovn.i32 d16, q8 .long 0x1a000004 // bne 4a78 .long 0xf442074f // vst1.16 {d16}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a00000c // beq 4ab8 .long 0xe3530002 // cmp r3, #2 .long 0x0a000003 // beq 4a9c .long 0xe3530003 // cmp r3, #3 .long 0x1afffff4 // bne 4a68 .long 0xe2823004 // add r3, r2, #4 .long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16] .long 0xee903bb0 // vmov.u16 r3, d16[0] .long 0xee904bf0 // vmov.u16 r4, d16[1] .long 0xee003b90 // vmov.32 d16[0], r3 .long 0xee204b90 // vmov.32 d16[1], r4 .long 0xf3f60121 // vuzp.16 d16, d17 .long 0xf4c2080f // vst1.32 {d16[0]}, [r2] .long 0xeaffffeb // b 4a68 .long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16] .long 0xeaffffe9 // b 4a68 HIDDEN _sk_load_8888_vfp4 .globl _sk_load_8888_vfp4 FUNCTION(_sk_load_8888_vfp4) _sk_load_8888_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe082210e // add r2, r2, lr, lsl #2 .long 0x1a000015 // bne 4b44 .long 0xf4620a8f // vld1.32 {d16-d17}, [r2] .long 0xf3c7205f // vmov.i32 q9, #255 .long 0xe28f209c // add r2, pc, #156 .long 0xf3f84070 // vshr.u32 q10, q8, #8 .long 0xf3f08070 // vshr.u32 q12, q8, #16 .long 0xf3e86070 // vshr.u32 q11, q8, #24 .long 0xf24001f2 // vand q8, q8, q9 .long 0xf24441f2 // vand q10, q10, q9 .long 0xf24821f2 // vand q9, q12, q9 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf3066df8 // vmul.f32 q3, q11, q12 .long 0xf3000df8 // vmul.f32 q0, q8, q12 .long 0xf3042df8 // vmul.f32 q1, q10, q12 .long 0xf3024df8 // vmul.f32 q2, q9, q12 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a00000c // beq 4b84 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 4b74 .long 0xe3530003 // cmp r3, #3 .long 0x1affffe2 // bne 4af0 .long 0xe3a03000 // mov r3, #0 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xe2823008 // add r3, r2, #8 .long 0xf4e3183f // vld1.32 {d17[0]}, [r3 :32] .long 0xedd22b00 // vldr d18, [r2] .long 0xf2f008e2 // vext.8 q8, q8, q9, #8 .long 0xf2f008e0 // vext.8 q8, q8, q8, #8 .long 0xeaffffda // b 4af0 .long 0xe3a03000 // mov r3, #0 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xeaffffd6 // b 4af0 .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_load_8888_dst_vfp4 .globl _sk_load_8888_dst_vfp4 FUNCTION(_sk_load_8888_dst_vfp4) _sk_load_8888_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020492 // mul r2, r2, r4 .long 0xe0852102 // add r2, r5, r2, lsl #2 .long 0xe0824103 // add r4, r2, r3, lsl #2 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a00001a // bne 4c4c .long 0xf4640a8f // vld1.32 {d16-d17}, [r4] .long 0xf3c7205f // vmov.i32 q9, #255 .long 0xe28f40b0 // add r4, pc, #176 .long 0xf3f84070 // vshr.u32 q10, q8, #8 .long 0xf3f08070 // vshr.u32 q12, q8, #16 .long 0xf24061f2 // vand q11, q8, q9 .long 0xf24441f2 // vand q10, q10, q9 .long 0xf24821f2 // vand q9, q12, q9 .long 0xf4648acf // vld1.64 {d24-d25}, [r4] .long 0xf3e80070 // vshr.u32 q8, q8, #24 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3466df8 // vmul.f32 q11, q11, q12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf3422df8 // vmul.f32 q9, q9, q12 .long 0xf3400df8 // vmul.f32 q8, q8, q12 .long 0xf4436aef // vst1.64 {d22-d23}, [r3 :128] .long 0xf4424aef // vst1.64 {d20-d21}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf44e2aef // vst1.64 {d18-d19}, [lr :128] .long 0xf44c0aef // vst1.64 {d16-d17}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a00000c // beq 4c8c .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 4c7c .long 0xe3550003 // cmp r5, #3 .long 0x1affffdd // bne 4be4 .long 0xe3a05000 // mov r5, #0 .long 0xeea05b90 // vdup.32 q8, r5 .long 0xe2845008 // add r5, r4, #8 .long 0xf4e5183f // vld1.32 {d17[0]}, [r5 :32] .long 0xedd42b00 // vldr d18, [r4] .long 0xf2f008e2 // vext.8 q8, q8, q9, #8 .long 0xf2f008e0 // vext.8 q8, q8, q8, #8 .long 0xeaffffd5 // b 4be4 .long 0xe3a05000 // mov r5, #0 .long 0xeea05b90 // vdup.32 q8, r5 .long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32] .long 0xeaffffd1 // b 4be4 .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_gather_8888_vfp4 .globl _sk_gather_8888_vfp4 FUNCTION(_sk_gather_8888_vfp4) _sk_gather_8888_vfp4: .long 0xe92d4830 // push {r4, r5, fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4932004 // ldr r2, [r3], #4 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xee133b90 // vmov.32 r3, d19[0] .long 0xee12eb90 // vmov.32 lr, d18[0] .long 0xee334b90 // vmov.32 r4, d19[1] .long 0xee325b90 // vmov.32 r5, d18[1] .long 0xf3c7205f // vmov.i32 q9, #255 .long 0xe0823103 // add r3, r2, r3, lsl #2 .long 0xf4e3183f // vld1.32 {d17[0]}, [r3 :32] .long 0xe082310e // add r3, r2, lr, lsl #2 .long 0xf4e3083f // vld1.32 {d16[0]}, [r3 :32] .long 0xe0823104 // add r3, r2, r4, lsl #2 .long 0xe0822105 // add r2, r2, r5, lsl #2 .long 0xf4e318bf // vld1.32 {d17[1]}, [r3 :32] .long 0xf4e208bf // vld1.32 {d16[1]}, [r2 :32] .long 0xe28f2044 // add r2, pc, #68 .long 0xf3f84070 // vshr.u32 q10, q8, #8 .long 0xf24061f2 // vand q11, q8, q9 .long 0xf3e88070 // vshr.u32 q12, q8, #24 .long 0xf3f00070 // vshr.u32 q8, q8, #16 .long 0xf24441f2 // vand q10, q10, q9 .long 0xf24001f2 // vand q8, q8, q9 .long 0xf3fb2664 // vcvt.f32.s32 q9, q10 .long 0xf4624acf // vld1.64 {d20-d21}, [r2] .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb8668 // vcvt.f32.s32 q12, q12 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3060df4 // vmul.f32 q0, q11, q10 .long 0xf3086df4 // vmul.f32 q3, q12, q10 .long 0xf3022df4 // vmul.f32 q1, q9, q10 .long 0xf3004df4 // vmul.f32 q2, q8, q10 .long 0xe8bd4830 // pop {r4, r5, fp, lr} .long 0xe12fff1c // bx ip .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_store_8888_vfp4 .globl _sk_store_8888_vfp4 FUNCTION(_sk_store_8888_vfp4) _sk_store_8888_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe28f20bc // add r2, pc, #188 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xf2444c72 // vfma.f32 q10, q2, q9 .long 0xe5912000 // ldr r2, [r1] .long 0xf2426c72 // vfma.f32 q11, q1, q9 .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xe5924000 // ldr r4, [r2] .long 0xf2400c72 // vfma.f32 q8, q0, q9 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe35c0000 // cmp ip, #0 .long 0xf2468c72 // vfma.f32 q12, q3, q9 .long 0xe0020392 // mul r2, r2, r3 .long 0xf3fb27e4 // vcvt.u32.f32 q9, q10 .long 0xf3fb47e6 // vcvt.u32.f32 q10, q11 .long 0xf3fb07e0 // vcvt.u32.f32 q8, q8 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe082210e // add r2, r2, lr, lsl #2 .long 0xf3fb67e8 // vcvt.u32.f32 q11, q12 .long 0xf2e84574 // vshl.s32 q10, q10, #8 .long 0xf2f02572 // vshl.s32 q9, q9, #16 .long 0xf26401f0 // vorr q8, q10, q8 .long 0xf2f84576 // vshl.s32 q10, q11, #24 .long 0xf26001f2 // vorr q8, q8, q9 .long 0xf26001f4 // vorr q8, q8, q10 .long 0x1a000004 // bne 4df0 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000007 // beq 4e1c .long 0xe3530002 // cmp r3, #2 .long 0x0a000003 // beq 4e14 .long 0xe3530003 // cmp r3, #3 .long 0x1afffff4 // bne 4de0 .long 0xe2823008 // add r3, r2, #8 .long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32] .long 0xedc20b00 // vstr d16, [r2] .long 0xeafffff0 // b 4de0 .long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32] .long 0xeaffffee // b 4de0 .long 0xe320f000 // nop {0} .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 HIDDEN _sk_load_bgra_vfp4 .globl _sk_load_bgra_vfp4 FUNCTION(_sk_load_bgra_vfp4) _sk_load_bgra_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe082210e // add r2, r2, lr, lsl #2 .long 0x1a000015 // bne 4ebc .long 0xf4620a8f // vld1.32 {d16-d17}, [r2] .long 0xf3c7205f // vmov.i32 q9, #255 .long 0xe28f209c // add r2, pc, #156 .long 0xf3f04070 // vshr.u32 q10, q8, #16 .long 0xf3f88070 // vshr.u32 q12, q8, #8 .long 0xf3e86070 // vshr.u32 q11, q8, #24 .long 0xf24001f2 // vand q8, q8, q9 .long 0xf24441f2 // vand q10, q10, q9 .long 0xf24821f2 // vand q9, q12, q9 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf3066df8 // vmul.f32 q3, q11, q12 .long 0xf3004df8 // vmul.f32 q2, q8, q12 .long 0xf3040df8 // vmul.f32 q0, q10, q12 .long 0xf3022df8 // vmul.f32 q1, q9, q12 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a00000c // beq 4efc .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe3530002 // cmp r3, #2 .long 0x0a000005 // beq 4eec .long 0xe3530003 // cmp r3, #3 .long 0x1affffe2 // bne 4e68 .long 0xe3a03000 // mov r3, #0 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xe2823008 // add r3, r2, #8 .long 0xf4e3183f // vld1.32 {d17[0]}, [r3 :32] .long 0xedd22b00 // vldr d18, [r2] .long 0xf2f008e2 // vext.8 q8, q8, q9, #8 .long 0xf2f008e0 // vext.8 q8, q8, q8, #8 .long 0xeaffffda // b 4e68 .long 0xe3a03000 // mov r3, #0 .long 0xeea03b90 // vdup.32 q8, r3 .long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32] .long 0xeaffffd6 // b 4e68 .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_load_bgra_dst_vfp4 .globl _sk_load_bgra_dst_vfp4 FUNCTION(_sk_load_bgra_dst_vfp4) _sk_load_bgra_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020492 // mul r2, r2, r4 .long 0xe0852102 // add r2, r5, r2, lsl #2 .long 0xe0824103 // add r4, r2, r3, lsl #2 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a00001a // bne 4fc4 .long 0xf4640a8f // vld1.32 {d16-d17}, [r4] .long 0xf3c7205f // vmov.i32 q9, #255 .long 0xe28f40b0 // add r4, pc, #176 .long 0xf3f84070 // vshr.u32 q10, q8, #8 .long 0xf3f08070 // vshr.u32 q12, q8, #16 .long 0xf24061f2 // vand q11, q8, q9 .long 0xf24441f2 // vand q10, q10, q9 .long 0xf24821f2 // vand q9, q12, q9 .long 0xf4648acf // vld1.64 {d24-d25}, [r4] .long 0xf3e80070 // vshr.u32 q8, q8, #24 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3466df8 // vmul.f32 q11, q11, q12 .long 0xf3444df8 // vmul.f32 q10, q10, q12 .long 0xf3422df8 // vmul.f32 q9, q9, q12 .long 0xf3400df8 // vmul.f32 q8, q8, q12 .long 0xf44e6aef // vst1.64 {d22-d23}, [lr :128] .long 0xf4424aef // vst1.64 {d20-d21}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf4432aef // vst1.64 {d18-d19}, [r3 :128] .long 0xf44c0aef // vst1.64 {d16-d17}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xe2065003 // and r5, r6, #3 .long 0xe3550001 // cmp r5, #1 .long 0x0a00000c // beq 5004 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe3550002 // cmp r5, #2 .long 0x0a000005 // beq 4ff4 .long 0xe3550003 // cmp r5, #3 .long 0x1affffdd // bne 4f5c .long 0xe3a05000 // mov r5, #0 .long 0xeea05b90 // vdup.32 q8, r5 .long 0xe2845008 // add r5, r4, #8 .long 0xf4e5183f // vld1.32 {d17[0]}, [r5 :32] .long 0xedd42b00 // vldr d18, [r4] .long 0xf2f008e2 // vext.8 q8, q8, q9, #8 .long 0xf2f008e0 // vext.8 q8, q8, q8, #8 .long 0xeaffffd5 // b 4f5c .long 0xe3a05000 // mov r5, #0 .long 0xeea05b90 // vdup.32 q8, r5 .long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32] .long 0xeaffffd1 // b 4f5c .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_gather_bgra_vfp4 .globl _sk_gather_bgra_vfp4 FUNCTION(_sk_gather_bgra_vfp4) _sk_gather_bgra_vfp4: .long 0xe92d4830 // push {r4, r5, fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4932004 // ldr r2, [r3], #4 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xee133b90 // vmov.32 r3, d19[0] .long 0xee12eb90 // vmov.32 lr, d18[0] .long 0xee334b90 // vmov.32 r4, d19[1] .long 0xee325b90 // vmov.32 r5, d18[1] .long 0xf3c7205f // vmov.i32 q9, #255 .long 0xe0823103 // add r3, r2, r3, lsl #2 .long 0xf4e3183f // vld1.32 {d17[0]}, [r3 :32] .long 0xe082310e // add r3, r2, lr, lsl #2 .long 0xf4e3083f // vld1.32 {d16[0]}, [r3 :32] .long 0xe0823104 // add r3, r2, r4, lsl #2 .long 0xe0822105 // add r2, r2, r5, lsl #2 .long 0xf4e318bf // vld1.32 {d17[1]}, [r3 :32] .long 0xf4e208bf // vld1.32 {d16[1]}, [r2 :32] .long 0xe28f2044 // add r2, pc, #68 .long 0xf3f04070 // vshr.u32 q10, q8, #16 .long 0xf24061f2 // vand q11, q8, q9 .long 0xf3e88070 // vshr.u32 q12, q8, #24 .long 0xf3f80070 // vshr.u32 q8, q8, #8 .long 0xf24441f2 // vand q10, q10, q9 .long 0xf24001f2 // vand q8, q8, q9 .long 0xf3fb2664 // vcvt.f32.s32 q9, q10 .long 0xf4624acf // vld1.64 {d20-d21}, [r2] .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3fb8668 // vcvt.f32.s32 q12, q12 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3064df4 // vmul.f32 q2, q11, q10 .long 0xf3086df4 // vmul.f32 q3, q12, q10 .long 0xf3020df4 // vmul.f32 q0, q9, q10 .long 0xf3002df4 // vmul.f32 q1, q8, q10 .long 0xe8bd4830 // pop {r4, r5, fp, lr} .long 0xe12fff1c // bx ip .long 0xe320f000 // nop {0} .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 .long 0x3b808081 // .word 0x3b808081 HIDDEN _sk_store_bgra_vfp4 .globl _sk_store_bgra_vfp4 FUNCTION(_sk_store_bgra_vfp4) _sk_store_bgra_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe28f20bc // add r2, pc, #188 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xf2424c72 // vfma.f32 q10, q1, q9 .long 0xe5912000 // ldr r2, [r1] .long 0xf2406c72 // vfma.f32 q11, q0, q9 .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xe5924000 // ldr r4, [r2] .long 0xf2440c72 // vfma.f32 q8, q2, q9 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe35c0000 // cmp ip, #0 .long 0xf2468c72 // vfma.f32 q12, q3, q9 .long 0xe0020392 // mul r2, r2, r3 .long 0xf3fb27e4 // vcvt.u32.f32 q9, q10 .long 0xf3fb47e6 // vcvt.u32.f32 q10, q11 .long 0xf3fb07e0 // vcvt.u32.f32 q8, q8 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe082210e // add r2, r2, lr, lsl #2 .long 0xf3fb67e8 // vcvt.u32.f32 q11, q12 .long 0xf2f04574 // vshl.s32 q10, q10, #16 .long 0xf2e82572 // vshl.s32 q9, q9, #8 .long 0xf26001f4 // vorr q8, q8, q10 .long 0xf2f84576 // vshl.s32 q10, q11, #24 .long 0xf26001f2 // vorr q8, q8, q9 .long 0xf26001f4 // vorr q8, q8, q10 .long 0x1a000004 // bne 5168 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe20c3003 // and r3, ip, #3 .long 0xe3530001 // cmp r3, #1 .long 0x0a000007 // beq 5194 .long 0xe3530002 // cmp r3, #2 .long 0x0a000003 // beq 518c .long 0xe3530003 // cmp r3, #3 .long 0x1afffff4 // bne 5158 .long 0xe2823008 // add r3, r2, #8 .long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32] .long 0xedc20b00 // vstr d16, [r2] .long 0xeafffff0 // b 5158 .long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32] .long 0xeaffffee // b 5158 .long 0xe320f000 // nop {0} .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 .long 0x437f0000 // .word 0x437f0000 HIDDEN _sk_load_f16_vfp4 .globl _sk_load_f16_vfp4 FUNCTION(_sk_load_f16_vfp4) _sk_load_f16_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5913000 // ldr r3, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901004 // ldmib r0, {r2, ip} .long 0xe5934000 // ldr r4, [r3] .long 0xe35c0000 // cmp ip, #0 .long 0xe5933004 // ldr r3, [r3, #4] .long 0xe0020293 // mul r2, r3, r2 .long 0xe0842182 // add r2, r4, r2, lsl #3 .long 0xe082318e // add r3, r2, lr, lsl #3 .long 0x1a000008 // bne 5200 .long 0xf463004f // vld4.16 {d16-d19}, [r3] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf3b60720 // vcvt.f32.f16 q0, d16 .long 0xe2811008 // add r1, r1, #8 .long 0xf3b62721 // vcvt.f32.f16 q1, d17 .long 0xf3b64722 // vcvt.f32.f16 q2, d18 .long 0xf3b66723 // vcvt.f32.f16 q3, d19 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3] .long 0xe35c0001 // cmp ip, #1 .long 0x0afffff4 // beq 51e0 .long 0xe2832008 // add r2, r3, #8 .long 0xe35c0003 // cmp ip, #3 .long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2] .long 0x3afffff0 // bcc 51e0 .long 0xe2832010 // add r2, r3, #16 .long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2] .long 0xeaffffed // b 51e0 HIDDEN _sk_load_f16_dst_vfp4 .globl _sk_load_f16_dst_vfp4 FUNCTION(_sk_load_f16_dst_vfp4) _sk_load_f16_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900068 // ldm r0, {r3, r5, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5924000 // ldr r4, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020592 // mul r2, r2, r5 .long 0xe0842182 // add r2, r4, r2, lsl #3 .long 0xe0825183 // add r5, r2, r3, lsl #3 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a00000d // bne 5298 .long 0xf465004f // vld4.16 {d16-d19}, [r5] .long 0xf3f64720 // vcvt.f32.f16 q10, d16 .long 0xf3f66721 // vcvt.f32.f16 q11, d17 .long 0xf3f68722 // vcvt.f32.f16 q12, d18 .long 0xf3f60723 // vcvt.f32.f16 q8, d19 .long 0xf4434aef // vst1.64 {d20-d21}, [r3 :128] .long 0xf4426aef // vst1.64 {d22-d23}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf44e8aef // vst1.64 {d24-d25}, [lr :128] .long 0xf44c0aef // vst1.64 {d16-d17}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xf4e5070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r5] .long 0xe3560001 // cmp r6, #1 .long 0x0affffef // beq 5264 .long 0xe2854008 // add r4, r5, #8 .long 0xe3560003 // cmp r6, #3 .long 0xf4e4074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r4] .long 0x3affffeb // bcc 5264 .long 0xe2854010 // add r4, r5, #16 .long 0xf4e4078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r4] .long 0xeaffffe8 // b 5264 HIDDEN _sk_gather_f16_vfp4 .globl _sk_gather_f16_vfp4 FUNCTION(_sk_gather_f16_vfp4) _sk_gather_f16_vfp4: .long 0xe92d4c10 // push {r4, sl, fp, lr} .long 0xe28db008 // add fp, sp, #8 .long 0xe24dd030 // sub sp, sp, #48 .long 0xe7c4d01f // bfc sp, #0, #5 .long 0xe5912000 // ldr r2, [r1] .long 0xf3fb0742 // vcvt.s32.f32 q8, q1 .long 0xf3fb2740 // vcvt.s32.f32 q9, q0 .long 0xe4923004 // ldr r3, [r2], #4 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xf26429e0 // vmla.i32 q9, q10, q8 .long 0xee33cb90 // vmov.32 ip, d19[1] .long 0xee322b90 // vmov.32 r2, d18[1] .long 0xee13eb90 // vmov.32 lr, d19[0] .long 0xee124b90 // vmov.32 r4, d18[0] .long 0xe083c18c // add ip, r3, ip, lsl #3 .long 0xe0832182 // add r2, r3, r2, lsl #3 .long 0xe083e18e // add lr, r3, lr, lsl #3 .long 0xeddc3b00 // vldr d19, [ip] .long 0xedd21b00 // vldr d17, [r2] .long 0xe0832184 // add r2, r3, r4, lsl #3 .long 0xedde2b00 // vldr d18, [lr] .long 0xedd20b00 // vldr d16, [r2] .long 0xe1a0200d // mov r2, sp .long 0xe3823010 // orr r3, r2, #16 .long 0xf4432aef // vst1.64 {d18-d19}, [r3 :128] .long 0xf4420aef // vst1.64 {d16-d17}, [r2 :128] .long 0xf462007f // vld4.16 {d16-d19}, [r2 :256] .long 0xf3b60720 // vcvt.f32.f16 q0, d16 .long 0xf3b62721 // vcvt.f32.f16 q1, d17 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf3b64722 // vcvt.f32.f16 q2, d18 .long 0xf3b66723 // vcvt.f32.f16 q3, d19 .long 0xe12fff32 // blx r2 .long 0xe24bd008 // sub sp, fp, #8 .long 0xe8bd8c10 // pop {r4, sl, fp, pc} HIDDEN _sk_store_f16_vfp4 .globl _sk_store_f16_vfp4 FUNCTION(_sk_store_f16_vfp4) _sk_store_f16_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xf3f63606 // vcvt.f16.f32 d19, q3 .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xf3f62604 // vcvt.f16.f32 d18, q2 .long 0xe5924000 // ldr r4, [r2] .long 0xf3f61602 // vcvt.f16.f32 d17, q1 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe35c0000 // cmp ip, #0 .long 0xf3f60600 // vcvt.f16.f32 d16, q0 .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842182 // add r2, r4, r2, lsl #3 .long 0xe082218e // add r2, r2, lr, lsl #3 .long 0x1a000004 // bne 53a0 .long 0xf442004f // vst4.16 {d16-d19}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe35c0001 // cmp ip, #1 .long 0xf4c2070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r2] .long 0x0afffff8 // beq 5390 .long 0xe2823008 // add r3, r2, #8 .long 0xe35c0003 // cmp ip, #3 .long 0xf4c3074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r3] .long 0x3afffff4 // bcc 5390 .long 0xe2822010 // add r2, r2, #16 .long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2] .long 0xeafffff1 // b 5390 HIDDEN _sk_load_u16_be_vfp4 .globl _sk_load_u16_be_vfp4 FUNCTION(_sk_load_u16_be_vfp4) _sk_load_u16_be_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5913000 // ldr r3, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901004 // ldmib r0, {r2, ip} .long 0xe5934000 // ldr r4, [r3] .long 0xe35c0000 // cmp ip, #0 .long 0xe5933004 // ldr r3, [r3, #4] .long 0xe0020293 // mul r2, r3, r2 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xe082318e // add r3, r2, lr, lsl #3 .long 0x1a00001e // bne 5470 .long 0xf463004f // vld4.16 {d16-d19}, [r3] .long 0xf3d84030 // vshr.u16 d20, d16, #8 .long 0xe28f2094 // add r2, pc, #148 .long 0xf2d85530 // vshl.s16 d21, d16, #8 .long 0xf3d86031 // vshr.u16 d22, d17, #8 .long 0xf2d87531 // vshl.s16 d23, d17, #8 .long 0xf2d80533 // vshl.s16 d16, d19, #8 .long 0xf3d8a033 // vshr.u16 d26, d19, #8 .long 0xf3d88032 // vshr.u16 d24, d18, #8 .long 0xf2d89532 // vshl.s16 d25, d18, #8 .long 0xf26511b4 // vorr d17, d21, d20 .long 0xf26721b6 // vorr d18, d23, d22 .long 0xf26931b8 // vorr d19, d25, d24 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xf26001ba // vorr d16, d16, d26 .long 0xf3d04a31 // vmovl.u16 q10, d17 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf3d06a32 // vmovl.u16 q11, d18 .long 0xe2811008 // add r1, r1, #8 .long 0xf3d02a33 // vmovl.u16 q9, d19 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3fb46e4 // vcvt.f32.u32 q10, q10 .long 0xf3fb66e6 // vcvt.f32.u32 q11, q11 .long 0xf3fb26e2 // vcvt.f32.u32 q9, q9 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3040df8 // vmul.f32 q0, q10, q12 .long 0xf3062df8 // vmul.f32 q1, q11, q12 .long 0xf3024df8 // vmul.f32 q2, q9, q12 .long 0xf3006df8 // vmul.f32 q3, q8, q12 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3] .long 0xe35c0001 // cmp ip, #1 .long 0x0affffde // beq 53f8 .long 0xe2832008 // add r2, r3, #8 .long 0xe35c0003 // cmp ip, #3 .long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2] .long 0x3affffda // bcc 53f8 .long 0xe2832010 // add r2, r3, #16 .long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2] .long 0xeaffffd7 // b 53f8 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 HIDDEN _sk_load_rgb_u16_be_vfp4 .globl _sk_load_rgb_u16_be_vfp4 FUNCTION(_sk_load_rgb_u16_be_vfp4) _sk_load_rgb_u16_be_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5913000 // ldr r3, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901004 // ldmib r0, {r2, ip} .long 0xe5934000 // ldr r4, [r3] .long 0xe35c0000 // cmp ip, #0 .long 0xe5933004 // ldr r3, [r3, #4] .long 0xe0020293 // mul r2, r3, r2 .long 0xe08e308e // add r3, lr, lr, lsl #1 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xe0823083 // add r3, r2, r3, lsl #1 .long 0x1a00001a // bne 5544 .long 0xf463044f // vld3.16 {d16-d18}, [r3] .long 0xf3d84030 // vshr.u16 d20, d16, #8 .long 0xe28f2088 // add r2, pc, #136 .long 0xf2d85530 // vshl.s16 d21, d16, #8 .long 0xf3d86031 // vshr.u16 d22, d17, #8 .long 0xf2d87531 // vshl.s16 d23, d17, #8 .long 0xf2d80532 // vshl.s16 d16, d18, #8 .long 0xf3d88032 // vshr.u16 d24, d18, #8 .long 0xf26721b6 // vorr d18, d23, d22 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf26511b4 // vorr d17, d21, d20 .long 0xe28f2074 // add r2, pc, #116 .long 0xf26001b8 // vorr d16, d16, d24 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xf3d02a32 // vmovl.u16 q9, d18 .long 0xf3d04a31 // vmovl.u16 q10, d17 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xe2811008 // add r1, r1, #8 .long 0xf3fb26e2 // vcvt.f32.u32 q9, q9 .long 0xf3fb46e4 // vcvt.f32.u32 q10, q10 .long 0xf3fb06e0 // vcvt.f32.u32 q8, q8 .long 0xf3022df6 // vmul.f32 q1, q9, q11 .long 0xf3040df6 // vmul.f32 q0, q10, q11 .long 0xf3004df6 // vmul.f32 q2, q8, q11 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xf4e3060f // vld3.16 {d16[0],d17[0],d18[0]}, [r3] .long 0xe35c0001 // cmp ip, #1 .long 0x0affffe2 // beq 54dc .long 0xe2832006 // add r2, r3, #6 .long 0xe35c0003 // cmp ip, #3 .long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2] .long 0x3affffde // bcc 54dc .long 0xe283200c // add r2, r3, #12 .long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2] .long 0xeaffffdb // b 54dc .long 0xe320f000 // nop {0} .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x37800080 // .word 0x37800080 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_store_u16_be_vfp4 .globl _sk_store_u16_be_vfp4 FUNCTION(_sk_store_u16_be_vfp4) _sk_store_u16_be_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe28f20d4 // add r2, pc, #212 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xf2440c72 // vfma.f32 q8, q2, q9 .long 0xe5913000 // ldr r3, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xf2424c72 // vfma.f32 q10, q1, q9 .long 0xe9901004 // ldmib r0, {r2, ip} .long 0xf2466c72 // vfma.f32 q11, q3, q9 .long 0xe5934000 // ldr r4, [r3] .long 0xe5933004 // ldr r3, [r3, #4] .long 0xe35c0000 // cmp ip, #0 .long 0xf2c3865f // vmov.i32 q12, #1056964608 .long 0xf2408c72 // vfma.f32 q12, q0, q9 .long 0xe0020293 // mul r2, r3, r2 .long 0xf3fb07e0 // vcvt.u32.f32 q8, q8 .long 0xf3fb27e4 // vcvt.u32.f32 q9, q10 .long 0xf3fb47e6 // vcvt.u32.f32 q10, q11 .long 0xe0842082 // add r2, r4, r2, lsl #1 .long 0xf3f60220 // vmovn.i32 d16, q8 .long 0xe082318e // add r3, r2, lr, lsl #3 .long 0xf3fb67e8 // vcvt.u32.f32 q11, q12 .long 0xf3f62222 // vmovn.i32 d18, q9 .long 0xf3f63224 // vmovn.i32 d19, q10 .long 0xf3d85030 // vshr.u16 d21, d16, #8 .long 0xf3d81033 // vshr.u16 d17, d19, #8 .long 0xf3f64226 // vmovn.i32 d20, q11 .long 0xf2d86530 // vshl.s16 d22, d16, #8 .long 0xf2d80533 // vshl.s16 d16, d19, #8 .long 0xf3d87032 // vshr.u16 d23, d18, #8 .long 0xf2d88532 // vshl.s16 d24, d18, #8 .long 0xf26031b1 // vorr d19, d16, d17 .long 0xf26621b5 // vorr d18, d22, d21 .long 0xf3d89034 // vshr.u16 d25, d20, #8 .long 0xf2d84534 // vshl.s16 d20, d20, #8 .long 0xf26811b7 // vorr d17, d24, d23 .long 0xf26401b9 // vorr d16, d20, d25 .long 0x1a000004 // bne 5648 .long 0xf443004f // vst4.16 {d16-d19}, [r3] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe35c0001 // cmp ip, #1 .long 0xf4c3070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3] .long 0x0afffff8 // beq 5638 .long 0xe2832008 // add r2, r3, #8 .long 0xe35c0003 // cmp ip, #3 .long 0xf4c2074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2] .long 0x3afffff4 // bcc 5638 .long 0xe2832010 // add r2, r3, #16 .long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2] .long 0xeafffff1 // b 5638 .long 0x477fff00 // .word 0x477fff00 .long 0x477fff00 // .word 0x477fff00 .long 0x477fff00 // .word 0x477fff00 .long 0x477fff00 // .word 0x477fff00 HIDDEN _sk_load_f32_vfp4 .globl _sk_load_f32_vfp4 FUNCTION(_sk_load_f32_vfp4) _sk_load_f32_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe082220e // add r2, r2, lr, lsl #4 .long 0x1a000009 // bne 56d4 .long 0xf462018d // vld4.32 {d16,d18,d20,d22}, [r2]! .long 0xf462118f // vld4.32 {d17,d19,d21,d23}, [r2] .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22441f4 // vorr q2, q10, q10 .long 0xf22661f6 // vorr q3, q11, q11 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xf4a20b4f // vld4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2] .long 0xe35c0001 // cmp ip, #1 .long 0x0afffff8 // beq 56c4 .long 0xe2823010 // add r3, r2, #16 .long 0xe35c0003 // cmp ip, #3 .long 0xf4a30bcf // vld4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3] .long 0x3afffff4 // bcc 56c4 .long 0xe2822020 // add r2, r2, #32 .long 0xf4a21b4f // vld4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2] .long 0xeafffff1 // b 56c4 HIDDEN _sk_load_f32_dst_vfp4 .globl _sk_load_f32_dst_vfp4 FUNCTION(_sk_load_f32_dst_vfp4) _sk_load_f32_dst_vfp4: .long 0xe92d4070 // push {r4, r5, r6, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe280c040 // add ip, r0, #64 .long 0xe8900058 // ldm r0, {r3, r4, r6} .long 0xe280e030 // add lr, r0, #48 .long 0xe5925000 // ldr r5, [r2] .long 0xe3560000 // cmp r6, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020492 // mul r2, r2, r4 .long 0xe0852102 // add r2, r5, r2, lsl #2 .long 0xe0824203 // add r4, r2, r3, lsl #4 .long 0xe2802020 // add r2, r0, #32 .long 0xe2803010 // add r3, r0, #16 .long 0x1a00000e // bne 5770 .long 0xf464818d // vld4.32 {d24,d26,d28,d30}, [r4]! .long 0xf464918f // vld4.32 {d25,d27,d29,d31}, [r4] .long 0xf26801f8 // vorr q8, q12, q12 .long 0xf26a21fa // vorr q9, q13, q13 .long 0xf26c41fc // vorr q10, q14, q14 .long 0xf26e61fe // vorr q11, q15, q15 .long 0xf4430aef // vst1.64 {d16-d17}, [r3 :128] .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2812008 // add r2, r1, #8 .long 0xf44e4aef // vst1.64 {d20-d21}, [lr :128] .long 0xf44c6aef // vst1.64 {d22-d23}, [ip :128] .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe8bd4070 // pop {r4, r5, r6, lr} .long 0xe12fff13 // bx r3 .long 0xf4e40b4f // vld4.32 {d16[0],d18[0],d20[0],d22[0]}, [r4] .long 0xe3560001 // cmp r6, #1 .long 0x0afffff3 // beq 574c .long 0xe2845010 // add r5, r4, #16 .long 0xe3560003 // cmp r6, #3 .long 0xf4e50bcf // vld4.32 {d16[1],d18[1],d20[1],d22[1]}, [r5] .long 0x3affffef // bcc 574c .long 0xe2844020 // add r4, r4, #32 .long 0xf4e41b4f // vld4.32 {d17[0],d19[0],d21[0],d23[0]}, [r4] .long 0xeaffffec // b 574c HIDDEN _sk_store_f32_vfp4 .globl _sk_store_f32_vfp4 FUNCTION(_sk_store_f32_vfp4) _sk_store_f32_vfp4: .long 0xe92d4010 // push {r4, lr} .long 0xe5912000 // ldr r2, [r1] .long 0xe590e000 // ldr lr, [r0] .long 0xe9901008 // ldmib r0, {r3, ip} .long 0xe5924000 // ldr r4, [r2] .long 0xe35c0000 // cmp ip, #0 .long 0xe5922004 // ldr r2, [r2, #4] .long 0xe0020392 // mul r2, r2, r3 .long 0xe0842102 // add r2, r4, r2, lsl #2 .long 0xe082220e // add r2, r2, lr, lsl #4 .long 0x1a000005 // bne 57dc .long 0xf402018d // vst4.32 {d0,d2,d4,d6}, [r2]! .long 0xf402118f // vst4.32 {d1,d3,d5,d7}, [r2] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe8bd4010 // pop {r4, lr} .long 0xe12fff12 // bx r2 .long 0xe35c0001 // cmp ip, #1 .long 0xf4820b4f // vst4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2] .long 0x0afffff8 // beq 57cc .long 0xe2823010 // add r3, r2, #16 .long 0xe35c0003 // cmp ip, #3 .long 0xf4830bcf // vst4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3] .long 0x3afffff4 // bcc 57cc .long 0xe2822020 // add r2, r2, #32 .long 0xf4821b4f // vst4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2] .long 0xeafffff1 // b 57cc HIDDEN _sk_clamp_x_vfp4 .globl _sk_clamp_x_vfp4 FUNCTION(_sk_clamp_x_vfp4) _sk_clamp_x_vfp4: .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe5913000 // ldr r3, [r1] .long 0xf3c72e5f // vmov.i8 q9, #255 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf2400fc0 // vmax.f32 q8, q8, q0 .long 0xe2811008 // add r1, r1, #8 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf26428e2 // vadd.i32 q9, q10, q9 .long 0xf2200fe2 // vmin.f32 q0, q8, q9 .long 0xe12fff12 // bx r2 HIDDEN _sk_clamp_y_vfp4 .globl _sk_clamp_y_vfp4 FUNCTION(_sk_clamp_y_vfp4) _sk_clamp_y_vfp4: .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe5913000 // ldr r3, [r1] .long 0xf3c72e5f // vmov.i8 q9, #255 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf2400fc2 // vmax.f32 q8, q8, q1 .long 0xe2811008 // add r1, r1, #8 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xf26428e2 // vadd.i32 q9, q10, q9 .long 0xf2202fe2 // vmin.f32 q1, q8, q9 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} HIDDEN _sk_repeat_x_vfp4 .globl _sk_repeat_x_vfp4 FUNCTION(_sk_repeat_x_vfp4) _sk_repeat_x_vfp4: .long 0xe5913000 // ldr r3, [r1] .long 0xf2c06050 // vmov.i32 q11, #0 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe28f3038 // add r3, pc, #56 .long 0xf3422dd0 // vmul.f32 q9, q9, q0 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf3fb4762 // vcvt.s32.f32 q10, q9 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3642ee2 // vcgt.f32 q9, q10, q9 .long 0xf35821f6 // vbsl q9, q12, q11 .long 0xf2642de2 // vsub.f32 q9, q10, q9 .long 0xf3c74e5f // vmov.i8 q10, #255 .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf26008e4 // vadd.i32 q8, q8, q10 .long 0xf2602d62 // vsub.f32 q9, q0, q9 .long 0xf2462fe2 // vmax.f32 q9, q11, q9 .long 0xf2220fe0 // vmin.f32 q0, q9, q8 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_repeat_y_vfp4 .globl _sk_repeat_y_vfp4 FUNCTION(_sk_repeat_y_vfp4) _sk_repeat_y_vfp4: .long 0xe5913000 // ldr r3, [r1] .long 0xf2c06050 // vmov.i32 q11, #0 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xe28f3038 // add r3, pc, #56 .long 0xf3422dd2 // vmul.f32 q9, q9, q1 .long 0xf4638acf // vld1.64 {d24-d25}, [r3] .long 0xf3fb4762 // vcvt.s32.f32 q10, q9 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3642ee2 // vcgt.f32 q9, q10, q9 .long 0xf35821f6 // vbsl q9, q12, q11 .long 0xf2642de2 // vsub.f32 q9, q10, q9 .long 0xf3c74e5f // vmov.i8 q10, #255 .long 0xf3402df2 // vmul.f32 q9, q8, q9 .long 0xf26008e4 // vadd.i32 q8, q8, q10 .long 0xf2622d62 // vsub.f32 q9, q1, q9 .long 0xf2462fe2 // vmax.f32 q9, q11, q9 .long 0xf2222fe0 // vmin.f32 q1, q9, q8 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_mirror_x_vfp4 .globl _sk_mirror_x_vfp4 FUNCTION(_sk_mirror_x_vfp4) _sk_mirror_x_vfp4: .long 0xed2d8b06 // vpush {d8-d10} .long 0xe5913000 // ldr r3, [r1] .long 0xeeb6aa00 // vmov.f32 s20, #96 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf2c08050 // vmov.i32 q12, #0 .long 0xe2811008 // add r1, r1, #8 .long 0xed938a00 // vldr s16, [r3] .long 0xed939a01 // vldr s18, [r3, #4] .long 0xe28f3050 // add r3, pc, #80 .long 0xf3f40c48 // vdup.32 q8, d8[0] .long 0xf2602d60 // vsub.f32 q9, q0, q8 .long 0xf463aacf // vld1.64 {d26-d27}, [r3] .long 0xee290a0a // vmul.f32 s0, s18, s20 .long 0xf3e249c0 // vmul.f32 q10, q9, d0[0] .long 0xee380a08 // vadd.f32 s0, s16, s16 .long 0xf3fb6764 // vcvt.s32.f32 q11, q10 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3664ee4 // vcgt.f32 q10, q11, q10 .long 0xf35a41f8 // vbsl q10, q13, q12 .long 0xf2664de4 // vsub.f32 q10, q11, q10 .long 0xf3e449c0 // vmul.f32 q10, q10, d0[0] .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf3c74e5f // vmov.i8 q10, #255 .long 0xf2622de0 // vsub.f32 q9, q9, q8 .long 0xf26008e4 // vadd.i32 q8, q8, q10 .long 0xf3f92762 // vabs.f32 q9, q9 .long 0xf2482fe2 // vmax.f32 q9, q12, q9 .long 0xf2220fe0 // vmin.f32 q0, q9, q8 .long 0xecbd8b06 // vpop {d8-d10} .long 0xe12fff12 // bx r2 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_mirror_y_vfp4 .globl _sk_mirror_y_vfp4 FUNCTION(_sk_mirror_y_vfp4) _sk_mirror_y_vfp4: .long 0xed2d8b06 // vpush {d8-d10} .long 0xe5913000 // ldr r3, [r1] .long 0xeeb6aa00 // vmov.f32 s20, #96 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xf2c08050 // vmov.i32 q12, #0 .long 0xe2811008 // add r1, r1, #8 .long 0xed938a00 // vldr s16, [r3] .long 0xed939a01 // vldr s18, [r3, #4] .long 0xe28f3050 // add r3, pc, #80 .long 0xf3f40c48 // vdup.32 q8, d8[0] .long 0xf2622d60 // vsub.f32 q9, q1, q8 .long 0xf463aacf // vld1.64 {d26-d27}, [r3] .long 0xee292a0a // vmul.f32 s4, s18, s20 .long 0xf3e249c2 // vmul.f32 q10, q9, d2[0] .long 0xee382a08 // vadd.f32 s4, s16, s16 .long 0xf3fb6764 // vcvt.s32.f32 q11, q10 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3664ee4 // vcgt.f32 q10, q11, q10 .long 0xf35a41f8 // vbsl q10, q13, q12 .long 0xf2664de4 // vsub.f32 q10, q11, q10 .long 0xf3e449c2 // vmul.f32 q10, q10, d2[0] .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf3c74e5f // vmov.i8 q10, #255 .long 0xf2622de0 // vsub.f32 q9, q9, q8 .long 0xf26008e4 // vadd.i32 q8, q8, q10 .long 0xf3f92762 // vabs.f32 q9, q9 .long 0xf2482fe2 // vmax.f32 q9, q12, q9 .long 0xf2222fe0 // vmin.f32 q1, q9, q8 .long 0xecbd8b06 // vpop {d8-d10} .long 0xe12fff12 // bx r2 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_clamp_x_1_vfp4 .globl _sk_clamp_x_1_vfp4 FUNCTION(_sk_clamp_x_1_vfp4) _sk_clamp_x_1_vfp4: .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2c72f50 // vmov.f32 q9, #1 .long 0xf2400fc0 // vmax.f32 q8, q8, q0 .long 0xf2200fe2 // vmin.f32 q0, q8, q9 .long 0xe12fff12 // bx r2 HIDDEN _sk_repeat_x_1_vfp4 .globl _sk_repeat_x_1_vfp4 FUNCTION(_sk_repeat_x_1_vfp4) _sk_repeat_x_1_vfp4: .long 0xf3fb0740 // vcvt.s32.f32 q8, q0 .long 0xe28f2024 // add r2, pc, #36 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xf2c04050 // vmov.i32 q10, #0 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xf3602ec0 // vcgt.f32 q9, q8, q0 .long 0xf35621f4 // vbsl q9, q11, q10 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf2200d60 // vsub.f32 q0, q0, q8 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_mirror_x_1_vfp4 .globl _sk_mirror_x_1_vfp4 FUNCTION(_sk_mirror_x_1_vfp4) _sk_mirror_x_1_vfp4: .long 0xf3c70f50 // vmov.f32 q8, #-1 .long 0xe28f203c // add r2, pc, #60 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf462aacf // vld1.64 {d26-d27}, [r2] .long 0xf2402d60 // vadd.f32 q9, q0, q8 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2c08050 // vmov.i32 q12, #0 .long 0xf3424df4 // vmul.f32 q10, q9, q10 .long 0xf3fb6764 // vcvt.s32.f32 q11, q10 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3664ee4 // vcgt.f32 q10, q11, q10 .long 0xf35a41f8 // vbsl q10, q13, q12 .long 0xf2664de4 // vsub.f32 q10, q11, q10 .long 0xf2444de4 // vadd.f32 q10, q10, q10 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2420de0 // vadd.f32 q8, q9, q8 .long 0xf3b90760 // vabs.f32 q0, q8 .long 0xe12fff12 // bx r2 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_luminance_to_alpha_vfp4 .globl _sk_luminance_to_alpha_vfp4 FUNCTION(_sk_luminance_to_alpha_vfp4) _sk_luminance_to_alpha_vfp4: .long 0xe28f2038 // add r2, pc, #56 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f2040 // add r2, pc, #64 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf3420d70 // vmul.f32 q8, q1, q8 .long 0xe28f2044 // add r2, pc, #68 .long 0xf2802050 // vmov.i32 q1, #0 .long 0xf3402d72 // vmul.f32 q9, q0, q9 .long 0xf2800050 // vmov.i32 q0, #0 .long 0xf2026de0 // vadd.f32 q3, q9, q8 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2046c70 // vfma.f32 q3, q2, q8 .long 0xf2804050 // vmov.i32 q2, #0 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0x3f371759 // .word 0x3f371759 .long 0x3f371759 // .word 0x3f371759 .long 0x3f371759 // .word 0x3f371759 .long 0x3f371759 // .word 0x3f371759 .long 0x3e59b3d0 // .word 0x3e59b3d0 .long 0x3e59b3d0 // .word 0x3e59b3d0 .long 0x3e59b3d0 // .word 0x3e59b3d0 .long 0x3e59b3d0 // .word 0x3e59b3d0 .long 0x3d93dd98 // .word 0x3d93dd98 .long 0x3d93dd98 // .word 0x3d93dd98 .long 0x3d93dd98 // .word 0x3d93dd98 .long 0x3d93dd98 // .word 0x3d93dd98 HIDDEN _sk_matrix_translate_vfp4 .globl _sk_matrix_translate_vfp4 FUNCTION(_sk_matrix_translate_vfp4) _sk_matrix_translate_vfp4: .long 0xe5913000 // ldr r3, [r1] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf4e30cbd // vld1.32 {d16[]-d17[]}, [r3 :32]! .long 0xf2000dc0 // vadd.f32 q0, q8, q0 .long 0xf4e32cbf // vld1.32 {d18[]-d19[]}, [r3 :32] .long 0xf2022dc2 // vadd.f32 q1, q9, q1 .long 0xe12fff12 // bx r2 HIDDEN _sk_matrix_scale_translate_vfp4 .globl _sk_matrix_scale_translate_vfp4 FUNCTION(_sk_matrix_scale_translate_vfp4) _sk_matrix_scale_translate_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe2832008 // add r2, r3, #8 .long 0xe1a0e003 // mov lr, r3 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe283200c // add r2, r3, #12 .long 0xf4ee0cbd // vld1.32 {d16[]-d17[]}, [lr :32]! .long 0xf2400c72 // vfma.f32 q8, q0, q9 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xf4ee2cbf // vld1.32 {d18[]-d19[]}, [lr :32] .long 0xf2422c74 // vfma.f32 q9, q1, q10 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_matrix_2x3_vfp4 .globl _sk_matrix_2x3_vfp4 FUNCTION(_sk_matrix_2x3_vfp4) _sk_matrix_2x3_vfp4: .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe283200c // add r2, r3, #12 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe2832010 // add r2, r3, #16 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832014 // add r2, r3, #20 .long 0xf2420c72 // vfma.f32 q8, q1, q9 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xf2422c74 // vfma.f32 q9, q1, q10 .long 0xf4e34cbd // vld1.32 {d20[]-d21[]}, [r3 :32]! .long 0xf4e36cbf // vld1.32 {d22[]-d23[]}, [r3 :32] .long 0xf2400c74 // vfma.f32 q8, q0, q10 .long 0xf2402c76 // vfma.f32 q9, q0, q11 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xe12fff1c // bx ip HIDDEN _sk_matrix_3x4_vfp4 .globl _sk_matrix_3x4_vfp4 FUNCTION(_sk_matrix_3x4_vfp4) _sk_matrix_3x4_vfp4: .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe2832020 // add r2, r3, #32 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe283201c // add r2, r3, #28 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe2832018 // add r2, r3, #24 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe2832024 // add r2, r3, #36 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832028 // add r2, r3, #40 .long 0xf2440c72 // vfma.f32 q8, q2, q9 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe283202c // add r2, r3, #44 .long 0xf2442c74 // vfma.f32 q9, q2, q10 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe283200c // add r2, r3, #12 .long 0xf2444c76 // vfma.f32 q10, q2, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832010 // add r2, r3, #16 .long 0xf2420c76 // vfma.f32 q8, q1, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832014 // add r2, r3, #20 .long 0xf2422c76 // vfma.f32 q9, q1, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf2424c76 // vfma.f32 q10, q1, q11 .long 0xf4e36cbd // vld1.32 {d22[]-d23[]}, [r3 :32]! .long 0xf4e38cbf // vld1.32 {d24[]-d25[]}, [r3 :32] .long 0xf2400c76 // vfma.f32 q8, q0, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xf2402c78 // vfma.f32 q9, q0, q12 .long 0xf2404c76 // vfma.f32 q10, q0, q11 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xf22441f4 // vorr q2, q10, q10 .long 0xe12fff1c // bx ip HIDDEN _sk_matrix_4x5_vfp4 .globl _sk_matrix_4x5_vfp4 FUNCTION(_sk_matrix_4x5_vfp4) _sk_matrix_4x5_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf2620152 // vorr q8, q1, q1 .long 0xf2666156 // vorr q11, q3, q3 .long 0xe2832030 // add r2, r3, #48 .long 0xf2644154 // vorr q10, q2, q2 .long 0xe1a0e003 // mov lr, r3 .long 0xe2811008 // add r1, r1, #8 .long 0xf4e2acbf // vld1.32 {d26[]-d27[]}, [r2 :32] .long 0xe2832038 // add r2, r3, #56 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe283203c // add r2, r3, #60 .long 0xf4e2ccbf // vld1.32 {d28[]-d29[]}, [r2 :32] .long 0xe2832034 // add r2, r3, #52 .long 0xf4e2ecbf // vld1.32 {d30[]-d31[]}, [r2 :32] .long 0xe2832044 // add r2, r3, #68 .long 0xf4a22cbf // vld1.32 {d2[]-d3[]}, [r2 :32] .long 0xe283204c // add r2, r3, #76 .long 0xf2062cfe // vfma.f32 q1, q11, q15 .long 0xf4a26cbf // vld1.32 {d6[]-d7[]}, [r2 :32] .long 0xe2832048 // add r2, r3, #72 .long 0xf2066cfc // vfma.f32 q3, q11, q14 .long 0xf4a24cbf // vld1.32 {d4[]-d5[]}, [r2 :32] .long 0xe2832040 // add r2, r3, #64 .long 0xf2064cf2 // vfma.f32 q2, q11, q9 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe283202c // add r2, r3, #44 .long 0xf2462cfa // vfma.f32 q9, q11, q13 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832028 // add r2, r3, #40 .long 0xf4ee8cbd // vld1.32 {d24[]-d25[]}, [lr :32]! .long 0xf2046cf6 // vfma.f32 q3, q10, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832020 // add r2, r3, #32 .long 0xf2044cf6 // vfma.f32 q2, q10, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832024 // add r2, r3, #36 .long 0xf2442cf6 // vfma.f32 q9, q10, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832018 // add r2, r3, #24 .long 0xf2042cf6 // vfma.f32 q1, q10, q11 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe2832010 // add r2, r3, #16 .long 0xf2004cf4 // vfma.f32 q2, q8, q10 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe2832014 // add r2, r3, #20 .long 0xf2402cf4 // vfma.f32 q9, q8, q10 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe283201c // add r2, r3, #28 .long 0xf2002cf4 // vfma.f32 q1, q8, q10 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf2006cf4 // vfma.f32 q3, q8, q10 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe283200c // add r2, r3, #12 .long 0xf2004c70 // vfma.f32 q2, q0, q8 .long 0xf4ee4cbf // vld1.32 {d20[]-d21[]}, [lr :32] .long 0xf2402c78 // vfma.f32 q9, q0, q12 .long 0xf2002c74 // vfma.f32 q1, q0, q10 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xf2006c74 // vfma.f32 q3, q0, q10 .long 0xf22201f2 // vorr q0, q9, q9 .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_matrix_4x3_vfp4 .globl _sk_matrix_4x3_vfp4 FUNCTION(_sk_matrix_4x3_vfp4) _sk_matrix_4x3_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe283201c // add r2, r3, #28 .long 0xe1a0e003 // mov lr, r3 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832014 // add r2, r3, #20 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xe2832010 // add r2, r3, #16 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe2832018 // add r2, r3, #24 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832028 // add r2, r3, #40 .long 0xf4a24cbf // vld1.32 {d4[]-d5[]}, [r2 :32] .long 0xe2832020 // add r2, r3, #32 .long 0xf2024c70 // vfma.f32 q2, q1, q8 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832024 // add r2, r3, #36 .long 0xf2420c72 // vfma.f32 q8, q1, q9 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe283202c // add r2, r3, #44 .long 0xf2422c78 // vfma.f32 q9, q1, q12 .long 0xf4ee4cbd // vld1.32 {d20[]-d21[]}, [lr :32]! .long 0xf4a26cbf // vld1.32 {d6[]-d7[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf2026c76 // vfma.f32 q3, q1, q11 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe283200c // add r2, r3, #12 .long 0xf2400c74 // vfma.f32 q8, q0, q10 .long 0xf4ee4cbf // vld1.32 {d20[]-d21[]}, [lr :32] .long 0xf2402c74 // vfma.f32 q9, q0, q10 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xf2004c76 // vfma.f32 q2, q0, q11 .long 0xf2006c74 // vfma.f32 q3, q0, q10 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xf22221f2 // vorr q1, q9, q9 .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_matrix_perspective_vfp4 .globl _sk_matrix_perspective_vfp4 FUNCTION(_sk_matrix_perspective_vfp4) _sk_matrix_perspective_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe283201c // add r2, r3, #28 .long 0xe1a0e003 // mov lr, r3 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832020 // add r2, r3, #32 .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32] .long 0xe2832018 // add r2, r3, #24 .long 0xf2422c70 // vfma.f32 q9, q1, q8 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe2832010 // add r2, r3, #16 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xe2832014 // add r2, r3, #20 .long 0xf2402c70 // vfma.f32 q9, q0, q8 .long 0xf4ee0cbd // vld1.32 {d16[]-d17[]}, [lr :32]! .long 0xf4eeacbf // vld1.32 {d26[]-d27[]}, [lr :32] .long 0xf2424c7a // vfma.f32 q10, q1, q13 .long 0xf4e2acbf // vld1.32 {d26[]-d27[]}, [r2 :32] .long 0xe283200c // add r2, r3, #12 .long 0xf242ac78 // vfma.f32 q13, q1, q12 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3fb6562 // vrecpe.f32 q11, q9 .long 0xf2404c70 // vfma.f32 q10, q0, q8 .long 0xf240ac78 // vfma.f32 q13, q0, q12 .long 0xf2422ff6 // vrecps.f32 q9, q9, q11 .long 0xf3460df2 // vmul.f32 q8, q11, q9 .long 0xf3040df0 // vmul.f32 q0, q10, q8 .long 0xf30a2df0 // vmul.f32 q1, q13, q8 .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip HIDDEN _sk_evenly_spaced_gradient_vfp4 .globl _sk_evenly_spaced_gradient_vfp4 FUNCTION(_sk_evenly_spaced_gradient_vfp4) _sk_evenly_spaced_gradient_vfp4: .long 0xe92d4ff0 // push {r4, r5, r6, r7, r8, r9, sl, fp, lr} .long 0xe24dd004 // sub sp, sp, #4 .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe2812004 // add r2, r1, #4 .long 0xe58d2004 // str r2, [sp, #4] .long 0xe1a0c001 // mov ip, r1 .long 0xf2600150 // vorr q8, q0, q0 .long 0xe49c4008 // ldr r4, [ip], #8 .long 0xe8944204 // ldm r4, {r2, r9, lr} .long 0xe2422001 // sub r2, r2, #1 .long 0xe5943010 // ldr r3, [r4, #16] .long 0xe5948020 // ldr r8, [r4, #32] .long 0xeea22b90 // vdup.32 q9, r2 .long 0xe594700c // ldr r7, [r4, #12] .long 0xf3fb26e2 // vcvt.f32.u32 q9, q9 .long 0xe594a01c // ldr sl, [r4, #28] .long 0xf3422df0 // vmul.f32 q9, q9, q8 .long 0xf3fb2762 // vcvt.s32.f32 q9, q9 .long 0xee336b90 // vmov.32 r6, d19[1] .long 0xee32bb90 // vmov.32 fp, d18[1] .long 0xe0832106 // add r2, r3, r6, lsl #2 .long 0xedd2ba00 // vldr s23, [r2] .long 0xee132b90 // vmov.32 r2, d19[0] .long 0xe0835102 // add r5, r3, r2, lsl #2 .long 0xed95ba00 // vldr s22, [r5] .long 0xe083510b // add r5, r3, fp, lsl #2 .long 0xedd5aa00 // vldr s21, [r5] .long 0xee125b90 // vmov.32 r5, d18[0] .long 0xe0833105 // add r3, r3, r5, lsl #2 .long 0xed93aa00 // vldr s20, [r3] .long 0xe0883106 // add r3, r8, r6, lsl #2 .long 0xedd37a00 // vldr s15, [r3] .long 0xe0883102 // add r3, r8, r2, lsl #2 .long 0xed937a00 // vldr s14, [r3] .long 0xe0873106 // add r3, r7, r6, lsl #2 .long 0xedd3da00 // vldr s27, [r3] .long 0xe0873102 // add r3, r7, r2, lsl #2 .long 0xed93da00 // vldr s26, [r3] .long 0xe087310b // add r3, r7, fp, lsl #2 .long 0xedd3ca00 // vldr s25, [r3] .long 0xe0873105 // add r3, r7, r5, lsl #2 .long 0xed93ca00 // vldr s24, [r3] .long 0xe08a3106 // add r3, sl, r6, lsl #2 .long 0xedd35a00 // vldr s11, [r3] .long 0xe5943018 // ldr r3, [r4, #24] .long 0xe5944014 // ldr r4, [r4, #20] .long 0xe0837106 // add r7, r3, r6, lsl #2 .long 0xedd73a00 // vldr s7, [r7] .long 0xe0837102 // add r7, r3, r2, lsl #2 .long 0xed973a00 // vldr s6, [r7] .long 0xe083710b // add r7, r3, fp, lsl #2 .long 0xe0833105 // add r3, r3, r5, lsl #2 .long 0xedd72a00 // vldr s5, [r7] .long 0xe0847106 // add r7, r4, r6, lsl #2 .long 0xedd79a00 // vldr s19, [r7] .long 0xe0847102 // add r7, r4, r2, lsl #2 .long 0xed932a00 // vldr s4, [r3] .long 0xe08a310b // add r3, sl, fp, lsl #2 .long 0xed979a00 // vldr s18, [r7] .long 0xe08e7106 // add r7, lr, r6, lsl #2 .long 0xe0896106 // add r6, r9, r6, lsl #2 .long 0xedd7fa00 // vldr s31, [r7] .long 0xe08e7105 // add r7, lr, r5, lsl #2 .long 0xedd61a00 // vldr s3, [r6] .long 0xe0896102 // add r6, r9, r2, lsl #2 .long 0xed961a00 // vldr s2, [r6] .long 0xe089610b // add r6, r9, fp, lsl #2 .long 0xedd60a00 // vldr s1, [r6] .long 0xe0896105 // add r6, r9, r5, lsl #2 .long 0xed960a00 // vldr s0, [r6] .long 0xe084610b // add r6, r4, fp, lsl #2 .long 0xe0844105 // add r4, r4, r5, lsl #2 .long 0xedd68a00 // vldr s17, [r6] .long 0xe08a6105 // add r6, sl, r5, lsl #2 .long 0xed948a00 // vldr s16, [r4] .long 0xe08e4102 // add r4, lr, r2, lsl #2 .long 0xe08a2102 // add r2, sl, r2, lsl #2 .long 0xf2008cd0 // vfma.f32 q4, q8, q0 .long 0xed94fa00 // vldr s30, [r4] .long 0xed925a00 // vldr s10, [r2] .long 0xe08e410b // add r4, lr, fp, lsl #2 .long 0xe088210b // add r2, r8, fp, lsl #2 .long 0xedd4ea00 // vldr s29, [r4] .long 0xe0884105 // add r4, r8, r5, lsl #2 .long 0xedd26a00 // vldr s13, [r2] .long 0xedd34a00 // vldr s9, [r3] .long 0xed946a00 // vldr s12, [r4] .long 0xed964a00 // vldr s8, [r6] .long 0xed97ea00 // vldr s28, [r7] .long 0xf2006cda // vfma.f32 q3, q8, q5 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe1a0100c // mov r1, ip .long 0xf2002cde // vfma.f32 q1, q8, q7 .long 0xf2004cdc // vfma.f32 q2, q8, q6 .long 0xf2280158 // vorr q0, q4, q4 .long 0xe28dd008 // add sp, sp, #8 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe28dd004 // add sp, sp, #4 .long 0xe8bd4ff0 // pop {r4, r5, r6, r7, r8, r9, sl, fp, lr} .long 0xe12fff12 // bx r2 HIDDEN _sk_gauss_a_to_rgba_vfp4 .globl _sk_gauss_a_to_rgba_vfp4 FUNCTION(_sk_gauss_a_to_rgba_vfp4) _sk_gauss_a_to_rgba_vfp4: .long 0xe28f2048 // add r2, pc, #72 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f2050 // add r2, pc, #80 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe28f2058 // add r2, pc, #88 .long 0xf2462c70 // vfma.f32 q9, q3, q8 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xe28f205c // add r2, pc, #92 .long 0xf2460c72 // vfma.f32 q8, q3, q9 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xe28f2060 // add r2, pc, #96 .long 0xf4220acf // vld1.64 {d0-d1}, [r2] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2462c70 // vfma.f32 q9, q3, q8 .long 0xf2060c72 // vfma.f32 q0, q3, q9 .long 0xf2202150 // vorr q1, q0, q0 .long 0xf2204150 // vorr q2, q0, q0 .long 0xf2206150 // vorr q3, q0, q0 .long 0xe12fff12 // bx r2 .long 0xe320f000 // nop {0} .long 0xc011102d // .word 0xc011102d .long 0xc011102d // .word 0xc011102d .long 0xc011102d // .word 0xc011102d .long 0xc011102d // .word 0xc011102d .long 0x40397812 // .word 0x40397812 .long 0x40397812 // .word 0x40397812 .long 0x40397812 // .word 0x40397812 .long 0x40397812 // .word 0x40397812 .long 0x3e5a9420 // .word 0x3e5a9420 .long 0x3e5a9420 // .word 0x3e5a9420 .long 0x3e5a9420 // .word 0x3e5a9420 .long 0x3e5a9420 // .word 0x3e5a9420 .long 0x3e1e9d04 // .word 0x3e1e9d04 .long 0x3e1e9d04 // .word 0x3e1e9d04 .long 0x3e1e9d04 // .word 0x3e1e9d04 .long 0x3e1e9d04 // .word 0x3e1e9d04 .long 0x39a11800 // .word 0x39a11800 .long 0x39a11800 // .word 0x39a11800 .long 0x39a11800 // .word 0x39a11800 .long 0x39a11800 // .word 0x39a11800 HIDDEN _sk_gradient_vfp4 .globl _sk_gradient_vfp4 FUNCTION(_sk_gradient_vfp4) _sk_gradient_vfp4: .long 0xe92d47f0 // push {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd008 // sub sp, sp, #8 .long 0xe2812004 // add r2, r1, #4 .long 0xe58d2004 // str r2, [sp, #4] .long 0xe5913000 // ldr r3, [r1] .long 0xf2606150 // vorr q11, q0, q0 .long 0xf2c02050 // vmov.i32 q9, #0 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe5931000 // ldr r1, [r3] .long 0xe3510002 // cmp r1, #2 .long 0x3a00000a // bcc 6144 .long 0xe5932024 // ldr r2, [r3, #36] .long 0xf2c04051 // vmov.i32 q10, #1 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe2411001 // sub r1, r1, #1 .long 0xe2822004 // add r2, r2, #4 .long 0xf4e28cbd // vld1.32 {d24[]-d25[]}, [r2 :32]! .long 0xe2511001 // subs r1, r1, #1 .long 0xf3468ee8 // vcge.f32 q12, q11, q12 .long 0xf35481f2 // vbsl q12, q10, q9 .long 0xf26808e0 // vadd.i32 q8, q12, q8 .long 0x1afffff9 // bne 612c .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xe5937010 // ldr r7, [r3, #16] .long 0xee112b90 // vmov.32 r2, d17[0] .long 0xe593c020 // ldr ip, [r3, #32] .long 0xee301b90 // vmov.32 r1, d16[1] .long 0xe593400c // ldr r4, [r3, #12] .long 0xe593801c // ldr r8, [r3, #28] .long 0xe5939008 // ldr r9, [r3, #8] .long 0xe593e004 // ldr lr, [r3, #4] .long 0xe0876105 // add r6, r7, r5, lsl #2 .long 0xedd6ba00 // vldr s23, [r6] .long 0xe0876102 // add r6, r7, r2, lsl #2 .long 0xed96ba00 // vldr s22, [r6] .long 0xe0876101 // add r6, r7, r1, lsl #2 .long 0xedd6aa00 // vldr s21, [r6] .long 0xee106b90 // vmov.32 r6, d16[0] .long 0xe0877106 // add r7, r7, r6, lsl #2 .long 0xe088a106 // add sl, r8, r6, lsl #2 .long 0xed97aa00 // vldr s20, [r7] .long 0xe08c7105 // add r7, ip, r5, lsl #2 .long 0xedd77a00 // vldr s15, [r7] .long 0xe08c7102 // add r7, ip, r2, lsl #2 .long 0xed977a00 // vldr s14, [r7] .long 0xe0847105 // add r7, r4, r5, lsl #2 .long 0xedd7da00 // vldr s27, [r7] .long 0xe0847102 // add r7, r4, r2, lsl #2 .long 0xed97da00 // vldr s26, [r7] .long 0xe0847101 // add r7, r4, r1, lsl #2 .long 0xe0844106 // add r4, r4, r6, lsl #2 .long 0xedd7ca00 // vldr s25, [r7] .long 0xed94ca00 // vldr s24, [r4] .long 0xe0884105 // add r4, r8, r5, lsl #2 .long 0xedd45a00 // vldr s11, [r4] .long 0xe5934018 // ldr r4, [r3, #24] .long 0xe5933014 // ldr r3, [r3, #20] .long 0xe0847105 // add r7, r4, r5, lsl #2 .long 0xedd73a00 // vldr s7, [r7] .long 0xe0897105 // add r7, r9, r5, lsl #2 .long 0xedd7fa00 // vldr s31, [r7] .long 0xe0897102 // add r7, r9, r2, lsl #2 .long 0xed97fa00 // vldr s30, [r7] .long 0xe0897101 // add r7, r9, r1, lsl #2 .long 0xedd7ea00 // vldr s29, [r7] .long 0xe0837105 // add r7, r3, r5, lsl #2 .long 0xe08e5105 // add r5, lr, r5, lsl #2 .long 0xedd79a00 // vldr s19, [r7] .long 0xe0837102 // add r7, r3, r2, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe08e5102 // add r5, lr, r2, lsl #2 .long 0xed979a00 // vldr s18, [r7] .long 0xe0837101 // add r7, r3, r1, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xe08e5101 // add r5, lr, r1, lsl #2 .long 0xedd78a00 // vldr s17, [r7] .long 0xe0837106 // add r7, r3, r6, lsl #2 .long 0xe0893106 // add r3, r9, r6, lsl #2 .long 0xedd50a00 // vldr s1, [r5] .long 0xe08c9106 // add r9, ip, r6, lsl #2 .long 0xe0845106 // add r5, r4, r6, lsl #2 .long 0xe08e6106 // add r6, lr, r6, lsl #2 .long 0xed978a00 // vldr s16, [r7] .long 0xe0847102 // add r7, r4, r2, lsl #2 .long 0xe0882102 // add r2, r8, r2, lsl #2 .long 0xed960a00 // vldr s0, [r6] .long 0xed93ea00 // vldr s28, [r3] .long 0xe0843101 // add r3, r4, r1, lsl #2 .long 0xf2068cd0 // vfma.f32 q4, q11, q0 .long 0xed973a00 // vldr s6, [r7] .long 0xe0887101 // add r7, r8, r1, lsl #2 .long 0xed925a00 // vldr s10, [r2] .long 0xe08c1101 // add r1, ip, r1, lsl #2 .long 0xedd32a00 // vldr s5, [r3] .long 0xedd74a00 // vldr s9, [r7] .long 0xedd16a00 // vldr s13, [r1] .long 0xe59d1004 // ldr r1, [sp, #4] .long 0xed952a00 // vldr s4, [r5] .long 0xed9a4a00 // vldr s8, [sl] .long 0xed996a00 // vldr s12, [r9] .long 0xf2062cde // vfma.f32 q1, q11, q7 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2064cdc // vfma.f32 q2, q11, q6 .long 0xf2066cda // vfma.f32 q3, q11, q5 .long 0xf2280158 // vorr q0, q4, q4 .long 0xe28dd008 // add sp, sp, #8 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd47f0 // pop {r4, r5, r6, r7, r8, r9, sl, lr} .long 0xe12fff12 // bx r2 HIDDEN _sk_evenly_spaced_2_stop_gradient_vfp4 .globl _sk_evenly_spaced_2_stop_gradient_vfp4 FUNCTION(_sk_evenly_spaced_2_stop_gradient_vfp4) _sk_evenly_spaced_2_stop_gradient_vfp4: .long 0xe92d4800 // push {fp, lr} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xe2811008 // add r1, r1, #8 .long 0xe283200c // add r2, r3, #12 .long 0xe1a0e003 // mov lr, r3 .long 0xf4e24cbf // vld1.32 {d20[]-d21[]}, [r2 :32] .long 0xe283201c // add r2, r3, #28 .long 0xf4a26cbf // vld1.32 {d6[]-d7[]}, [r2 :32] .long 0xe2832008 // add r2, r3, #8 .long 0xf2006c74 // vfma.f32 q3, q0, q10 .long 0xf4e26cbf // vld1.32 {d22[]-d23[]}, [r2 :32] .long 0xe2832018 // add r2, r3, #24 .long 0xf4a24cbf // vld1.32 {d4[]-d5[]}, [r2 :32] .long 0xe2832010 // add r2, r3, #16 .long 0xf2004c76 // vfma.f32 q2, q0, q11 .long 0xf4e20cbf // vld1.32 {d16[]-d17[]}, [r2 :32] .long 0xe2832014 // add r2, r3, #20 .long 0xf4ee2cbd // vld1.32 {d18[]-d19[]}, [lr :32]! .long 0xf2400c72 // vfma.f32 q8, q0, q9 .long 0xf4ee2cbf // vld1.32 {d18[]-d19[]}, [lr :32] .long 0xf4a22cbf // vld1.32 {d2[]-d3[]}, [r2 :32] .long 0xf2002c72 // vfma.f32 q1, q0, q9 .long 0xf22001f0 // vorr q0, q8, q8 .long 0xe8bd4800 // pop {fp, lr} .long 0xe12fff1c // bx ip .long 0xe320f000 // nop {0} HIDDEN _sk_xy_to_unit_angle_vfp4 .globl _sk_xy_to_unit_angle_vfp4 FUNCTION(_sk_xy_to_unit_angle_vfp4) _sk_xy_to_unit_angle_vfp4: .long 0xed2d8b0c // vpush {d8-d13} .long 0xf3f90742 // vabs.f32 q8, q1 .long 0xe28f20a8 // add r2, pc, #168 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xe28f20b0 // add r2, pc, #176 .long 0xf3f92740 // vabs.f32 q9, q0 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f20b4 // add r2, pc, #180 .long 0xf202afe0 // vmax.f32 q5, q9, q8 .long 0xf222cfe0 // vmin.f32 q6, q9, q8 .long 0xf3600ee2 // vcgt.f32 q8, q8, q9 .long 0xeecd9aab // vdiv.f32 s19, s27, s23 .long 0xee8d9a0b // vdiv.f32 s18, s26, s22 .long 0xeecc8aaa // vdiv.f32 s17, s25, s21 .long 0xee8c8a0a // vdiv.f32 s16, s24, s20 .long 0xf3484d58 // vmul.f32 q10, q4, q4 .long 0xf3446df6 // vmul.f32 q11, q10, q11 .long 0xf2466de8 // vadd.f32 q11, q11, q12 .long 0xf4628acf // vld1.64 {d24-d25}, [r2] .long 0xe28f2094 // add r2, pc, #148 .long 0xf3446df6 // vmul.f32 q11, q10, q11 .long 0xf2466de8 // vadd.f32 q11, q11, q12 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf4626acf // vld1.64 {d22-d23}, [r2] .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf2444de6 // vadd.f32 q10, q10, q11 .long 0xf2c56f50 // vmov.f32 q11, #0.25 .long 0xf3484d74 // vmul.f32 q10, q4, q10 .long 0xf2662de4 // vsub.f32 q9, q11, q10 .long 0xf35201f4 // vbsl q8, q9, q10 .long 0xf3f94640 // vclt.f32 q10, q0, #0 .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xf2622de0 // vsub.f32 q9, q9, q8 .long 0xf35241f0 // vbsl q10, q9, q8 .long 0xf3f92642 // vclt.f32 q9, q1, #0 .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xf2600de4 // vsub.f32 q8, q8, q10 .long 0xf35021f4 // vbsl q9, q8, q10 .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xf3424ee0 // vcge.f32 q10, q9, q8 .long 0xf3606ee2 // vcgt.f32 q11, q8, q9 .long 0xf26641f4 // vorr q10, q11, q10 .long 0xf3b005e4 // vmvn q0, q10 .long 0xf31001f2 // vbsl q0, q8, q9 .long 0xecbd8b0c // vpop {d8-d13} .long 0xe12fff12 // bx r2 .long 0xbbe72b6f // .word 0xbbe72b6f .long 0xbbe72b6f // .word 0xbbe72b6f .long 0xbbe72b6f // .word 0xbbe72b6f .long 0xbbe72b6f // .word 0xbbe72b6f .long 0x3ccad79f // .word 0x3ccad79f .long 0x3ccad79f // .word 0x3ccad79f .long 0x3ccad79f // .word 0x3ccad79f .long 0x3ccad79f // .word 0x3ccad79f .long 0xbd5464d4 // .word 0xbd5464d4 .long 0xbd5464d4 // .word 0xbd5464d4 .long 0xbd5464d4 // .word 0xbd5464d4 .long 0xbd5464d4 // .word 0xbd5464d4 .long 0x3e22f0a9 // .word 0x3e22f0a9 .long 0x3e22f0a9 // .word 0x3e22f0a9 .long 0x3e22f0a9 // .word 0x3e22f0a9 .long 0x3e22f0a9 // .word 0x3e22f0a9 HIDDEN _sk_xy_to_radius_vfp4 .globl _sk_xy_to_radius_vfp4 FUNCTION(_sk_xy_to_radius_vfp4) _sk_xy_to_radius_vfp4: .long 0xf3420d52 // vmul.f32 q8, q1, q1 .long 0xe4912004 // ldr r2, [r1], #4 .long 0xf3402d50 // vmul.f32 q9, q0, q0 .long 0xf2420de0 // vadd.f32 q8, q9, q8 .long 0xf3fb25e0 // vrsqrte.f32 q9, q8 .long 0xf3424df2 // vmul.f32 q10, q9, q9 .long 0xf2604ff4 // vrsqrts.f32 q10, q8, q10 .long 0xf3422df4 // vmul.f32 q9, q9, q10 .long 0xf3424df2 // vmul.f32 q10, q9, q9 .long 0xf2604ff4 // vrsqrts.f32 q10, q8, q10 .long 0xf3422df4 // vmul.f32 q9, q9, q10 .long 0xf3000df2 // vmul.f32 q0, q8, q9 .long 0xe12fff12 // bx r2 HIDDEN _sk_xy_to_2pt_conical_quadratic_max_vfp4 .globl _sk_xy_to_2pt_conical_quadratic_max_vfp4 FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_vfp4) _sk_xy_to_2pt_conical_quadratic_max_vfp4: .long 0xed2d8b04 // vpush {d8-d9} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3420d52 // vmul.f32 q8, q1, q1 .long 0xf3402d50 // vmul.f32 q9, q0, q0 .long 0xe2832020 // add r2, r3, #32 .long 0xf3c14f50 // vmov.f32 q10, #-4 .long 0xed938a0a // vldr s16, [r3, #40] .long 0xe2811008 // add r1, r1, #8 .long 0xed939a0b // vldr s18, [r3, #44] .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3484df4 // vmul.f32 q10, q12, q10 .long 0xe2832024 // add r2, r3, #36 .long 0xee299a08 // vmul.f32 s18, s18, s16 .long 0xee288a08 // vmul.f32 s16, s16, s16 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf2420de0 // vadd.f32 q8, q9, q8 .long 0xf3f42c49 // vdup.32 q9, d9[0] .long 0xf3f46c48 // vdup.32 q11, d8[0] .long 0xf2422dc0 // vadd.f32 q9, q9, q0 .long 0xf2600de6 // vsub.f32 q8, q8, q11 .long 0xf3c46650 // vmov.i32 q11, #-1073741824 .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf3440df0 // vmul.f32 q8, q10, q8 .long 0xf2420cf2 // vfma.f32 q8, q9, q9 .long 0xf3fb45e0 // vrsqrte.f32 q10, q8 .long 0xf3446df4 // vmul.f32 q11, q10, q10 .long 0xf2606ff6 // vrsqrts.f32 q11, q8, q11 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf3446df4 // vmul.f32 q11, q10, q10 .long 0xf2606ff6 // vrsqrts.f32 q11, q8, q11 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf3f967e2 // vneg.f32 q11, q9 .long 0xf3440df0 // vmul.f32 q8, q10, q8 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf3484df4 // vmul.f32 q10, q12, q10 .long 0xf2666de0 // vsub.f32 q11, q11, q8 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf3442df6 // vmul.f32 q9, q10, q11 .long 0xf3440df0 // vmul.f32 q8, q10, q8 .long 0xf2000fe2 // vmax.f32 q0, q8, q9 .long 0xecbd8b04 // vpop {d8-d9} .long 0xe12fff1c // bx ip HIDDEN _sk_xy_to_2pt_conical_quadratic_min_vfp4 .globl _sk_xy_to_2pt_conical_quadratic_min_vfp4 FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_vfp4) _sk_xy_to_2pt_conical_quadratic_min_vfp4: .long 0xed2d8b04 // vpush {d8-d9} .long 0xe8911008 // ldm r1, {r3, ip} .long 0xf3420d52 // vmul.f32 q8, q1, q1 .long 0xf3402d50 // vmul.f32 q9, q0, q0 .long 0xe2832020 // add r2, r3, #32 .long 0xf3c14f50 // vmov.f32 q10, #-4 .long 0xed938a0a // vldr s16, [r3, #40] .long 0xe2811008 // add r1, r1, #8 .long 0xed939a0b // vldr s18, [r3, #44] .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf3484df4 // vmul.f32 q10, q12, q10 .long 0xe2832024 // add r2, r3, #36 .long 0xee299a08 // vmul.f32 s18, s18, s16 .long 0xee288a08 // vmul.f32 s16, s16, s16 .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32] .long 0xf2420de0 // vadd.f32 q8, q9, q8 .long 0xf3f42c49 // vdup.32 q9, d9[0] .long 0xf3f46c48 // vdup.32 q11, d8[0] .long 0xf2422dc0 // vadd.f32 q9, q9, q0 .long 0xf2600de6 // vsub.f32 q8, q8, q11 .long 0xf3c46650 // vmov.i32 q11, #-1073741824 .long 0xf3422df6 // vmul.f32 q9, q9, q11 .long 0xf3440df0 // vmul.f32 q8, q10, q8 .long 0xf2420cf2 // vfma.f32 q8, q9, q9 .long 0xf3fb45e0 // vrsqrte.f32 q10, q8 .long 0xf3446df4 // vmul.f32 q11, q10, q10 .long 0xf2606ff6 // vrsqrts.f32 q11, q8, q11 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf3446df4 // vmul.f32 q11, q10, q10 .long 0xf2606ff6 // vrsqrts.f32 q11, q8, q11 .long 0xf3444df6 // vmul.f32 q10, q10, q11 .long 0xf3f967e2 // vneg.f32 q11, q9 .long 0xf3440df0 // vmul.f32 q8, q10, q8 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf3484df4 // vmul.f32 q10, q12, q10 .long 0xf2666de0 // vsub.f32 q11, q11, q8 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf3442df6 // vmul.f32 q9, q10, q11 .long 0xf3440df0 // vmul.f32 q8, q10, q8 .long 0xf2200fe2 // vmin.f32 q0, q8, q9 .long 0xecbd8b04 // vpop {d8-d9} .long 0xe12fff1c // bx ip HIDDEN _sk_xy_to_2pt_conical_linear_vfp4 .globl _sk_xy_to_2pt_conical_linear_vfp4 FUNCTION(_sk_xy_to_2pt_conical_linear_vfp4) _sk_xy_to_2pt_conical_linear_vfp4: .long 0xed2d8b08 // vpush {d8-d11} .long 0xe5913000 // ldr r3, [r1] .long 0xf3420d52 // vmul.f32 q8, q1, q1 .long 0xf3402d50 // vmul.f32 q9, q0, q0 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xed938a0a // vldr s16, [r3, #40] .long 0xed939a0b // vldr s18, [r3, #44] .long 0xee28aa08 // vmul.f32 s20, s16, s16 .long 0xee298a08 // vmul.f32 s16, s18, s16 .long 0xf2420de0 // vadd.f32 q8, q9, q8 .long 0xf3f42c4a // vdup.32 q9, d10[0] .long 0xf3f44c48 // vdup.32 q10, d8[0] .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf2442dc0 // vadd.f32 q9, q10, q0 .long 0xf3c44650 // vmov.i32 q10, #-1073741824 .long 0xf3b987e0 // vneg.f32 q4, q8 .long 0xf302adf4 // vmul.f32 q5, q9, q10 .long 0xeec91aab // vdiv.f32 s3, s19, s23 .long 0xee891a0b // vdiv.f32 s2, s18, s22 .long 0xeec80aaa // vdiv.f32 s1, s17, s21 .long 0xee880a0a // vdiv.f32 s0, s16, s20 .long 0xecbd8b08 // vpop {d8-d11} .long 0xe12fff12 // bx r2 HIDDEN _sk_mask_2pt_conical_degenerates_vfp4 .globl _sk_mask_2pt_conical_degenerates_vfp4 FUNCTION(_sk_mask_2pt_conical_degenerates_vfp4) _sk_mask_2pt_conical_degenerates_vfp4: .long 0xf2c00050 // vmov.i32 q8, #0 .long 0xe5912000 // ldr r2, [r1] .long 0xf3402e60 // vcge.f32 q9, q0, q8 .long 0xe282302c // add r3, r2, #44 .long 0xf3600ec0 // vcgt.f32 q8, q8, q0 .long 0xf4e34cbf // vld1.32 {d20[]-d21[]}, [r3 :32] .long 0xe2823028 // add r3, r2, #40 .long 0xf4e36cbf // vld1.32 {d22[]-d23[]}, [r3 :32] .long 0xf2406c74 // vfma.f32 q11, q0, q10 .long 0xf26001f2 // vorr q8, q8, q9 .long 0xf3f924e6 // vcge.f32 q9, q11, #0 .long 0xf3f62222 // vmovn.i32 d18, q9 .long 0xf3f60220 // vmovn.i32 d16, q8 .long 0xf24201b0 // vand d16, d18, d16 .long 0xf2c1205f // vmov.i32 q9, #31 .long 0xf3d00a30 // vmovl.u16 q8, d16 .long 0xf3f923e2 // vneg.s32 q9, q9 .long 0xf2ff0570 // vshl.s32 q8, q8, #31 .long 0xf26204e0 // vshl.s32 q8, q8, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 HIDDEN _sk_apply_vector_mask_vfp4 .globl _sk_apply_vector_mask_vfp4 FUNCTION(_sk_apply_vector_mask_vfp4) _sk_apply_vector_mask_vfp4: .long 0xe5913000 // ldr r3, [r1] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xf4630a8f // vld1.32 {d16-d17}, [r3] .long 0xf20001d0 // vand q0, q8, q0 .long 0xf20021d2 // vand q1, q8, q1 .long 0xf20041d4 // vand q2, q8, q2 .long 0xf20061d6 // vand q3, q8, q3 .long 0xe12fff12 // bx r2 HIDDEN _sk_save_xy_vfp4 .globl _sk_save_xy_vfp4 FUNCTION(_sk_save_xy_vfp4) _sk_save_xy_vfp4: .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xe28f206c // add r2, pc, #108 .long 0xf462cacf // vld1.64 {d28-d29}, [r2] .long 0xf2c0a050 // vmov.i32 q13, #0 .long 0xf2402d60 // vadd.f32 q9, q0, q8 .long 0xe5912000 // ldr r2, [r1] .long 0xf2420d60 // vadd.f32 q8, q1, q8 .long 0xe2823020 // add r3, r2, #32 .long 0xf4020a8f // vst1.32 {d0-d1}, [r2] .long 0xf3fb4762 // vcvt.s32.f32 q10, q9 .long 0xf4032a8f // vst1.32 {d2-d3}, [r3] .long 0xe2823040 // add r3, r2, #64 .long 0xf3fb6760 // vcvt.s32.f32 q11, q8 .long 0xe2822060 // add r2, r2, #96 .long 0xf3fb4664 // vcvt.f32.s32 q10, q10 .long 0xf3fb6666 // vcvt.f32.s32 q11, q11 .long 0xf3648ee2 // vcgt.f32 q12, q10, q9 .long 0xf366eee0 // vcgt.f32 q15, q11, q8 .long 0xf35c81fa // vbsl q12, q14, q13 .long 0xf35ce1fa // vbsl q15, q14, q13 .long 0xf2644de8 // vsub.f32 q10, q10, q12 .long 0xf2666dee // vsub.f32 q11, q11, q15 .long 0xf2622de4 // vsub.f32 q9, q9, q10 .long 0xf2600de6 // vsub.f32 q8, q8, q11 .long 0xf4432a8f // vst1.32 {d18-d19}, [r3] .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 HIDDEN _sk_accumulate_vfp4 .globl _sk_accumulate_vfp4 FUNCTION(_sk_accumulate_vfp4) _sk_accumulate_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xe28230a0 // add r3, r2, #160 .long 0xe2822080 // add r2, r2, #128 .long 0xf4630a8f // vld1.32 {d16-d17}, [r3] .long 0xf4622a8f // vld1.32 {d18-d19}, [r2] .long 0xe2802010 // add r2, r0, #16 .long 0xf3420df0 // vmul.f32 q8, q9, q8 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2402cd0 // vfma.f32 q9, q8, q0 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802020 // add r2, r0, #32 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2402cd2 // vfma.f32 q9, q8, q1 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802030 // add r2, r0, #48 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2402cd4 // vfma.f32 q9, q8, q2 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe2802040 // add r2, r0, #64 .long 0xf4622aef // vld1.64 {d18-d19}, [r2 :128] .long 0xf2402cd6 // vfma.f32 q9, q8, q3 .long 0xf4422aef // vst1.64 {d18-d19}, [r2 :128] .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe2811008 // add r1, r1, #8 .long 0xe12fff12 // bx r2 HIDDEN _sk_bilinear_nx_vfp4 .globl _sk_bilinear_nx_vfp4 FUNCTION(_sk_bilinear_nx_vfp4) _sk_bilinear_nx_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2823040 // add r3, r2, #64 .long 0xf4624a8f // vld1.32 {d20-d21}, [r2] .long 0xe2822080 // add r2, r2, #128 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf3c3265f // vmov.i32 q9, #-1090519040 .long 0xf2040de2 // vadd.f32 q0, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 HIDDEN _sk_bilinear_px_vfp4 .globl _sk_bilinear_px_vfp4 FUNCTION(_sk_bilinear_px_vfp4) _sk_bilinear_px_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf4622a8f // vld1.32 {d18-d19}, [r2] .long 0xe2823040 // add r3, r2, #64 .long 0xf2020de0 // vadd.f32 q0, q9, q8 .long 0xe2822080 // add r2, r2, #128 .long 0xf4630a8f // vld1.32 {d16-d17}, [r3] .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 HIDDEN _sk_bilinear_ny_vfp4 .globl _sk_bilinear_ny_vfp4 FUNCTION(_sk_bilinear_ny_vfp4) _sk_bilinear_ny_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2823060 // add r3, r2, #96 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xe28220a0 // add r2, r2, #160 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xf3c3265f // vmov.i32 q9, #-1090519040 .long 0xf2042de2 // vadd.f32 q1, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 HIDDEN _sk_bilinear_py_vfp4 .globl _sk_bilinear_py_vfp4 FUNCTION(_sk_bilinear_py_vfp4) _sk_bilinear_py_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c3265f // vmov.i32 q9, #1056964608 .long 0xe2823060 // add r3, r2, #96 .long 0xf4630a8f // vld1.32 {d16-d17}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xe28220a0 // add r2, r2, #160 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xf2042de2 // vadd.f32 q1, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xe320f000 // nop {0} HIDDEN _sk_bicubic_n3x_vfp4 .globl _sk_bicubic_n3x_vfp4 FUNCTION(_sk_bicubic_n3x_vfp4) _sk_bicubic_n3x_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2823040 // add r3, r2, #64 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe28f3040 // add r3, pc, #64 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xe28f3044 // add r3, pc, #68 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xf2404cf2 // vfma.f32 q10, q8, q9 .long 0xf3400df0 // vmul.f32 q8, q8, q8 .long 0xf3c72f58 // vmov.f32 q9, #-1.5 .long 0xf3400df4 // vmul.f32 q8, q8, q10 .long 0xf4624a8f // vld1.32 {d20-d21}, [r2] .long 0xe2822080 // add r2, r2, #128 .long 0xf2040de2 // vadd.f32 q0, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xe320f000 // nop {0} .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab HIDDEN _sk_bicubic_n1x_vfp4 .globl _sk_bicubic_n1x_vfp4 FUNCTION(_sk_bicubic_n1x_vfp4) _sk_bicubic_n1x_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2823040 // add r3, r2, #64 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe28f3048 // add r3, pc, #72 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xe28f304c // add r3, pc, #76 .long 0xf2c72f58 // vmov.f32 q9, #1.5 .long 0xf2402cf4 // vfma.f32 q9, q8, q10 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf2404cf2 // vfma.f32 q10, q8, q9 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xf2402cf4 // vfma.f32 q9, q8, q10 .long 0xf4624a8f // vld1.32 {d20-d21}, [r2] .long 0xe2822080 // add r2, r2, #128 .long 0xf3c3065f // vmov.i32 q8, #-1090519040 .long 0xf2040de0 // vadd.f32 q0, q10, q8 .long 0xf4422a8f // vst1.32 {d18-d19}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xe320f000 // nop {0} .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 HIDDEN _sk_bicubic_p1x_vfp4 .globl _sk_bicubic_p1x_vfp4 FUNCTION(_sk_bicubic_p1x_vfp4) _sk_bicubic_p1x_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xe28f304c // add r3, pc, #76 .long 0xf4630acf // vld1.64 {d16-d17}, [r3] .long 0xf2c72f58 // vmov.f32 q9, #1.5 .long 0xe2823040 // add r3, r2, #64 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xe28f3044 // add r3, pc, #68 .long 0xf2442cf0 // vfma.f32 q9, q10, q8 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2446cf2 // vfma.f32 q11, q10, q9 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xf2442cf6 // vfma.f32 q9, q10, q11 .long 0xf4624a8f // vld1.32 {d20-d21}, [r2] .long 0xe2822080 // add r2, r2, #128 .long 0xf2040de0 // vadd.f32 q0, q10, q8 .long 0xf4422a8f // vst1.32 {d18-d19}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xe320f000 // nop {0} .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 HIDDEN _sk_bicubic_p3x_vfp4 .globl _sk_bicubic_p3x_vfp4 FUNCTION(_sk_bicubic_p3x_vfp4) _sk_bicubic_p3x_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xe28f3044 // add r3, pc, #68 .long 0xf4630acf // vld1.64 {d16-d17}, [r3] .long 0xe2823040 // add r3, r2, #64 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe28f3044 // add r3, pc, #68 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xf2424cf0 // vfma.f32 q10, q9, q8 .long 0xf3420df2 // vmul.f32 q8, q9, q9 .long 0xf2c72f58 // vmov.f32 q9, #1.5 .long 0xf3400df4 // vmul.f32 q8, q8, q10 .long 0xf4624a8f // vld1.32 {d20-d21}, [r2] .long 0xe2822080 // add r2, r2, #128 .long 0xf2040de2 // vadd.f32 q0, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xe320f000 // nop {0} .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab HIDDEN _sk_bicubic_n3y_vfp4 .globl _sk_bicubic_n3y_vfp4 FUNCTION(_sk_bicubic_n3y_vfp4) _sk_bicubic_n3y_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2823060 // add r3, r2, #96 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe28f3040 // add r3, pc, #64 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xe28f3044 // add r3, pc, #68 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xe28220a0 // add r2, r2, #160 .long 0xf2404cf2 // vfma.f32 q10, q8, q9 .long 0xf3400df0 // vmul.f32 q8, q8, q8 .long 0xf3c72f58 // vmov.f32 q9, #-1.5 .long 0xf3400df4 // vmul.f32 q8, q8, q10 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xf2042de2 // vadd.f32 q1, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab HIDDEN _sk_bicubic_n1y_vfp4 .globl _sk_bicubic_n1y_vfp4 FUNCTION(_sk_bicubic_n1y_vfp4) _sk_bicubic_n1y_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xf2c70f50 // vmov.f32 q8, #1 .long 0xe2823060 // add r3, r2, #96 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe28f3048 // add r3, pc, #72 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xe28f304c // add r3, pc, #76 .long 0xf2c72f58 // vmov.f32 q9, #1.5 .long 0xf2402cf4 // vfma.f32 q9, q8, q10 .long 0xf2c3465f // vmov.i32 q10, #1056964608 .long 0xf2404cf2 // vfma.f32 q10, q8, q9 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xe28220a0 // add r2, r2, #160 .long 0xf2402cf4 // vfma.f32 q9, q8, q10 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xf3c3065f // vmov.i32 q8, #-1090519040 .long 0xf2042de0 // vadd.f32 q1, q10, q8 .long 0xf4422a8f // vst1.32 {d18-d19}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 HIDDEN _sk_bicubic_p1y_vfp4 .globl _sk_bicubic_p1y_vfp4 FUNCTION(_sk_bicubic_p1y_vfp4) _sk_bicubic_p1y_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xe28f304c // add r3, pc, #76 .long 0xf4630acf // vld1.64 {d16-d17}, [r3] .long 0xf2c72f58 // vmov.f32 q9, #1.5 .long 0xe2823060 // add r3, r2, #96 .long 0xf2c3665f // vmov.i32 q11, #1056964608 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xe28f3044 // add r3, pc, #68 .long 0xf2442cf0 // vfma.f32 q9, q10, q8 .long 0xf2c3065f // vmov.i32 q8, #1056964608 .long 0xf2446cf2 // vfma.f32 q11, q10, q9 .long 0xf4632acf // vld1.64 {d18-d19}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xe28220a0 // add r2, r2, #160 .long 0xf2442cf6 // vfma.f32 q9, q10, q11 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xf2042de0 // vadd.f32 q1, q10, q8 .long 0xf4422a8f // vst1.32 {d18-d19}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0xbf955555 // .word 0xbf955555 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 .long 0x3d638e39 // .word 0x3d638e39 HIDDEN _sk_bicubic_p3y_vfp4 .globl _sk_bicubic_p3y_vfp4 FUNCTION(_sk_bicubic_p3y_vfp4) _sk_bicubic_p3y_vfp4: .long 0xe5912000 // ldr r2, [r1] .long 0xe28f3044 // add r3, pc, #68 .long 0xf4630acf // vld1.64 {d16-d17}, [r3] .long 0xe2823060 // add r3, r2, #96 .long 0xf4632a8f // vld1.32 {d18-d19}, [r3] .long 0xe28f3044 // add r3, pc, #68 .long 0xf4634acf // vld1.64 {d20-d21}, [r3] .long 0xe2823020 // add r3, r2, #32 .long 0xf2424cf0 // vfma.f32 q10, q9, q8 .long 0xe28220a0 // add r2, r2, #160 .long 0xf3420df2 // vmul.f32 q8, q9, q9 .long 0xf2c72f58 // vmov.f32 q9, #1.5 .long 0xf3400df4 // vmul.f32 q8, q8, q10 .long 0xf4634a8f // vld1.32 {d20-d21}, [r3] .long 0xf2042de2 // vadd.f32 q1, q10, q9 .long 0xf4420a8f // vst1.32 {d16-d17}, [r2] .long 0xe2812008 // add r2, r1, #8 .long 0xe5913004 // ldr r3, [r1, #4] .long 0xe1a01002 // mov r1, r2 .long 0xe12fff13 // bx r3 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0x3ec71c72 // .word 0x3ec71c72 .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab .long 0xbeaaaaab // .word 0xbeaaaaab HIDDEN _sk_callback_vfp4 .globl _sk_callback_vfp4 FUNCTION(_sk_callback_vfp4) _sk_callback_vfp4: .long 0xe92d4c70 // push {r4, r5, r6, sl, fp, lr} .long 0xe28db010 // add fp, sp, #16 .long 0xe1a04001 // mov r4, r1 .long 0xe1a05000 // mov r5, r0 .long 0xe5946000 // ldr r6, [r4] .long 0xe5951008 // ldr r1, [r5, #8] .long 0xe2860004 // add r0, r6, #4 .long 0xe3510000 // cmp r1, #0 .long 0xf400018d // vst4.32 {d0,d2,d4,d6}, [r0]! .long 0x03a01004 // moveq r1, #4 .long 0xf400118f // vst4.32 {d1,d3,d5,d7}, [r0] .long 0xe1a00006 // mov r0, r6 .long 0xe5962000 // ldr r2, [r6] .long 0xe12fff32 // blx r2 .long 0xe5960084 // ldr r0, [r6, #132] .long 0xe2841008 // add r1, r4, #8 .long 0xf420018d // vld4.32 {d0,d2,d4,d6}, [r0]! .long 0xf420118f // vld4.32 {d1,d3,d5,d7}, [r0] .long 0xe1a00005 // mov r0, r5 .long 0xe5942004 // ldr r2, [r4, #4] .long 0xe8bd4c70 // pop {r4, r5, r6, sl, fp, lr} .long 0xe12fff12 // bx r2 HIDDEN _sk_clut_3D_vfp4 .globl _sk_clut_3D_vfp4 FUNCTION(_sk_clut_3D_vfp4) _sk_clut_3D_vfp4: .long 0xe92d4830 // push {r4, r5, fp, lr} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24dd090 // sub sp, sp, #144 .long 0xe28db050 // add fp, sp, #80 .long 0xe2812004 // add r2, r1, #4 .long 0xe1a0c001 // mov ip, r1 .long 0xf280c053 // vmov.i32 q6, #3 .long 0xec8b6b04 // vstmia fp, {d6-d7} .long 0xe58d208c // str r2, [sp, #140] .long 0xe49c2008 // ldr r2, [ip], #8 .long 0xe8924008 // ldm r2, {r3, lr} .long 0xe5924008 // ldr r4, [r2, #8] .long 0xe592200c // ldr r2, [r2, #12] .long 0xe2445001 // sub r5, r4, #1 .long 0xee0e4b90 // vmov.32 d30[0], r4 .long 0xeea05b90 // vdup.32 q8, r5 .long 0xe24e5001 // sub r5, lr, #1 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xee0c2b90 // vmov.32 d28[0], r2 .long 0xe28de060 // add lr, sp, #96 .long 0xf22e89fc // vmul.i32 q4, q15, q14 .long 0xf3006dd2 // vmul.f32 q3, q8, q1 .long 0xeea05b90 // vdup.32 q8, r5 .long 0xf3fb2660 // vcvt.f32.s32 q9, q8 .long 0xe2425001 // sub r5, r2, #1 .long 0xeea02b90 // vdup.32 q8, r2 .long 0xeea65b90 // vdup.32 q11, r5 .long 0xf3fb8666 // vcvt.f32.s32 q12, q11 .long 0xf3fba746 // vcvt.s32.f32 q13, q3 .long 0xf3426dd0 // vmul.f32 q11, q9, q0 .long 0xf3488dd4 // vmul.f32 q12, q12, q2 .long 0xf26a29f0 // vmul.i32 q9, q13, q8 .long 0xf3bb2766 // vcvt.s32.f32 q1, q11 .long 0xecce8b04 // vstmia lr, {d24-d25} .long 0xe28de070 // add lr, sp, #112 .long 0xf3fba66a // vcvt.f32.s32 q13, q13 .long 0xf262e9dc // vmul.i32 q15, q9, q6 .long 0xf3fb2768 // vcvt.s32.f32 q9, q12 .long 0xf3e24848 // vmul.i32 q10, q1, d8[0] .long 0xecceeb04 // vstmia lr, {d30-d31} .long 0xe28de040 // add lr, sp, #64 .long 0xf262e9cc // vmla.i32 q15, q9, q6 .long 0xf22201f2 // vorr q0, q9, q9 .long 0xf2c02052 // vmov.i32 q9, #2 .long 0xf3bb2642 // vcvt.f32.s32 q1, q1 .long 0xec8e0b04 // vstmia lr, {d0-d1} .long 0xe28de030 // add lr, sp, #48 .long 0xf22ea1fe // vorr q5, q15, q15 .long 0xf224a9cc // vmla.i32 q5, q10, q6 .long 0xf26a8862 // vadd.i32 q12, q5, q9 .long 0xee394b90 // vmov.32 r4, d25[1] .long 0xee385b90 // vmov.32 r5, d24[1] .long 0xee182b90 // vmov.32 r2, d24[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd45a00 // vldr s11, [r4] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee194b90 // vmov.32 r4, d25[0] .long 0xf2c08052 // vmov.i32 q12, #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed945a00 // vldr s10, [r4] .long 0xedd54a00 // vldr s9, [r5] .long 0xed924a00 // vldr s8, [r2] .long 0xe28f2ffb // add r2, pc, #1004 .long 0xf4622acf // vld1.64 {d18-d19}, [r2] .long 0xf246cde2 // vadd.f32 q14, q11, q9 .long 0xf222e1f2 // vorr q7, q9, q9 .long 0xf3fbc76c // vcvt.s32.f32 q14, q14 .long 0xec8eeb04 // vstmia lr, {d14-d15} .long 0xe28de020 // add lr, sp, #32 .long 0xf3ec28c8 // vmul.i32 q9, q14, d8[0] .long 0xf2c0c053 // vmov.i32 q14, #3 .long 0xf262e9cc // vmla.i32 q15, q9, q6 .long 0xecce2b04 // vstmia lr, {d18-d19} .long 0xe28de010 // add lr, sp, #16 .long 0xf22e88e8 // vadd.i32 q4, q15, q12 .long 0xf2668dc2 // vsub.f32 q12, q11, q1 .long 0xee394b10 // vmov.32 r4, d9[1] .long 0xf2062d4e // vadd.f32 q1, q3, q7 .long 0xee385b10 // vmov.32 r5, d8[1] .long 0xee182b10 // vmov.32 r2, d8[0] .long 0xf26461f4 // vorr q11, q10, q10 .long 0xf3bb2742 // vcvt.s32.f32 q1, q1 .long 0xf2620970 // vmul.i32 q8, q1, q8 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd4da00 // vldr s27, [r4] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee194b10 // vmov.32 r4, d9[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed94da00 // vldr s26, [r4] .long 0xedd5ca00 // vldr s25, [r5] .long 0xed92ca00 // vldr s24, [r2] .long 0xf22c8d44 // vsub.f32 q4, q6, q2 .long 0xf220c9fc // vmul.i32 q6, q8, q14 .long 0xf2084c78 // vfma.f32 q2, q4, q12 .long 0xf2c00053 // vmov.i32 q8, #3 .long 0xec8dcb04 // vstmia sp, {d12-d13} .long 0xf220c96c // vmla.i32 q6, q0, q14 .long 0xf22ce15c // vorr q7, q6, q6 .long 0xf224e9ec // vmla.i32 q7, q10, q14 .long 0xf2c0c052 // vmov.i32 q14, #2 .long 0xf222c9e0 // vmla.i32 q6, q9, q8 .long 0xf22e886c // vadd.i32 q4, q7, q14 .long 0xf2c02051 // vmov.i32 q9, #1 .long 0xf2660d6a // vsub.f32 q8, q3, q13 .long 0xee394b10 // vmov.32 r4, d9[1] .long 0xee182b10 // vmov.32 r2, d8[0] .long 0xf26aa862 // vadd.i32 q13, q5, q9 .long 0xee385b10 // vmov.32 r5, d8[1] .long 0xf2c02051 // vmov.i32 q9, #1 .long 0xf26841f8 // vorr q10, q12, q12 .long 0xf22661f6 // vorr q3, q11, q11 .long 0xf2c06051 // vmov.i32 q11, #1 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd43a00 // vldr s7, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee194b10 // vmov.32 r4, d9[0] .long 0xf22c886c // vadd.i32 q4, q6, q14 .long 0xf2c0c053 // vmov.i32 q14, #3 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed943a00 // vldr s6, [r4] .long 0xee394b10 // vmov.32 r4, d9[1] .long 0xedd52a00 // vldr s5, [r5] .long 0xee385b10 // vmov.32 r5, d8[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee182b10 // vmov.32 r2, d8[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd41a00 // vldr s3, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee194b10 // vmov.32 r4, d9[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xee3b4b90 // vmov.32 r4, d27[1] .long 0xedd50a00 // vldr s1, [r5] .long 0xee3a5b90 // vmov.32 r5, d26[1] .long 0xed920a00 // vldr s0, [r2] .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xe28de060 // add lr, sp, #96 .long 0xf2200d42 // vsub.f32 q0, q0, q1 .long 0xee1a2b90 // vmov.32 r2, d26[0] .long 0xf2002c78 // vfma.f32 q1, q0, q12 .long 0xf2220d44 // vsub.f32 q0, q1, q2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd43a00 // vldr s7, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1b4b90 // vmov.32 r4, d27[0] .long 0xf26ea8e2 // vadd.i32 q13, q15, q9 .long 0xf2004c70 // vfma.f32 q2, q0, q8 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xf2c02051 // vmov.i32 q9, #1 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed943a00 // vldr s6, [r4] .long 0xee3b4b90 // vmov.32 r4, d27[1] .long 0xedd52a00 // vldr s5, [r5] .long 0xee3a5b90 // vmov.32 r5, d26[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee1a2b90 // vmov.32 r2, d26[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd41a00 // vldr s3, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1b4b90 // vmov.32 r4, d27[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xedd50a00 // vldr s1, [r5] .long 0xed920a00 // vldr s0, [r2] .long 0xf260ad42 // vsub.f32 q13, q0, q1 .long 0xf20a2cf4 // vfma.f32 q1, q13, q10 .long 0xf26ea862 // vadd.i32 q13, q7, q9 .long 0xee3b4b90 // vmov.32 r4, d27[1] .long 0xee1a2b90 // vmov.32 r2, d26[0] .long 0xee3a5b90 // vmov.32 r5, d26[1] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd49a00 // vldr s19, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1b4b90 // vmov.32 r4, d27[0] .long 0xf26ca862 // vadd.i32 q13, q6, q9 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed949a00 // vldr s18, [r4] .long 0xee3b4b90 // vmov.32 r4, d27[1] .long 0xedd58a00 // vldr s17, [r5] .long 0xee3a5b90 // vmov.32 r5, d26[1] .long 0xed928a00 // vldr s16, [r2] .long 0xee1a2b90 // vmov.32 r2, d26[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd41a00 // vldr s3, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1b4b90 // vmov.32 r4, d27[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xedd50a00 // vldr s1, [r5] .long 0xed920a00 // vldr s0, [r2] .long 0xf260ad48 // vsub.f32 q13, q0, q4 .long 0xf20a8cf4 // vfma.f32 q4, q13, q10 .long 0xf268ad42 // vsub.f32 q13, q4, q1 .long 0xf20a2cf0 // vfma.f32 q1, q13, q8 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de030 // add lr, sp, #48 .long 0xecde2b04 // vldmia lr, {d18-d19} .long 0xe28de070 // add lr, sp, #112 .long 0xf2408de2 // vadd.f32 q12, q8, q9 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de020 // add lr, sp, #32 .long 0xf2c02053 // vmov.i32 q9, #3 .long 0xf3fba768 // vcvt.s32.f32 q13, q12 .long 0xf26a09e2 // vmla.i32 q8, q13, q9 .long 0xf26081f0 // vorr q12, q8, q8 .long 0xf2668962 // vmla.i32 q12, q3, q9 .long 0xecde2b04 // vldmia lr, {d18-d19} .long 0xe28de070 // add lr, sp, #112 .long 0xf26209ec // vmla.i32 q8, q9, q14 .long 0xf22808e6 // vadd.i32 q0, q12, q11 .long 0xee314b10 // vmov.32 r4, d1[1] .long 0xee305b10 // vmov.32 r5, d0[1] .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd49a00 // vldr s19, [r4] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee114b10 // vmov.32 r4, d1[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed949a00 // vldr s18, [r4] .long 0xedd58a00 // vldr s17, [r5] .long 0xed928a00 // vldr s16, [r2] .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xf26008e6 // vadd.i32 q8, q8, q11 .long 0xe28de010 // add lr, sp, #16 .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd41a00 // vldr s3, [r4] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xedd50a00 // vldr s1, [r5] .long 0xed920a00 // vldr s0, [r2] .long 0xf2600d48 // vsub.f32 q8, q0, q4 .long 0xf2800051 // vmov.i32 q0, #1 .long 0xf2008cf4 // vfma.f32 q4, q8, q10 .long 0xecdd0b04 // vldmia sp, {d16-d17} .long 0xf26a09ec // vmla.i32 q8, q13, q14 .long 0xf260a1f0 // vorr q13, q8, q8 .long 0xf266a96c // vmla.i32 q13, q3, q14 .long 0xf26061f0 // vorr q11, q8, q8 .long 0xf26269ec // vmla.i32 q11, q9, q14 .long 0xecdecb04 // vldmia lr, {d28-d29} .long 0xe28de070 // add lr, sp, #112 .long 0xf26a08c0 // vadd.i32 q8, q13, q0 .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd47a00 // vldr s15, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xf26608c0 // vadd.i32 q8, q11, q0 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed947a00 // vldr s14, [r4] .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xedd56a00 // vldr s13, [r5] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xed926a00 // vldr s12, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd41a00 // vldr s3, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xee3b4b10 // vmov.32 r4, d11[1] .long 0xedd50a00 // vldr s1, [r5] .long 0xee3a5b10 // vmov.32 r5, d10[1] .long 0xed920a00 // vldr s0, [r2] .long 0xee1a2b10 // vmov.32 r2, d10[0] .long 0xf2600d46 // vsub.f32 q8, q0, q3 .long 0xf2006cf4 // vfma.f32 q3, q8, q10 .long 0xf2660d48 // vsub.f32 q8, q3, q4 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd41a00 // vldr s3, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1b4b10 // vmov.32 r4, d11[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xf2008cfc // vfma.f32 q4, q8, q14 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed941a00 // vldr s2, [r4] .long 0xee3f4b90 // vmov.32 r4, d31[1] .long 0xedd50a00 // vldr s1, [r5] .long 0xee3e5b90 // vmov.32 r5, d30[1] .long 0xed920a00 // vldr s0, [r2] .long 0xee1e2b90 // vmov.32 r2, d30[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd47a00 // vldr s15, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1f4b90 // vmov.32 r4, d31[0] .long 0xf26ce1fc // vorr q15, q14, q14 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed947a00 // vldr s14, [r4] .long 0xee3f4b10 // vmov.32 r4, d15[1] .long 0xedd56a00 // vldr s13, [r5] .long 0xee3e5b10 // vmov.32 r5, d14[1] .long 0xed926a00 // vldr s12, [r2] .long 0xee1e2b10 // vmov.32 r2, d14[0] .long 0xf2660d40 // vsub.f32 q8, q3, q0 .long 0xf2000cf4 // vfma.f32 q0, q8, q10 .long 0xea000003 // b 7148 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd47a00 // vldr s15, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1f4b10 // vmov.32 r4, d15[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed947a00 // vldr s14, [r4] .long 0xee3d4b10 // vmov.32 r4, d13[1] .long 0xedd56a00 // vldr s13, [r5] .long 0xee3c5b10 // vmov.32 r5, d12[1] .long 0xed926a00 // vldr s12, [r2] .long 0xee1c2b10 // vmov.32 r2, d12[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd4ba00 // vldr s23, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1d4b10 // vmov.32 r4, d13[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed94ba00 // vldr s22, [r4] .long 0xee394b90 // vmov.32 r4, d25[1] .long 0xedd5aa00 // vldr s21, [r5] .long 0xee385b90 // vmov.32 r5, d24[1] .long 0xed92aa00 // vldr s20, [r2] .long 0xee182b90 // vmov.32 r2, d24[0] .long 0xf26a0d46 // vsub.f32 q8, q5, q3 .long 0xf2006cf4 // vfma.f32 q3, q8, q10 .long 0xf2660d40 // vsub.f32 q8, q3, q0 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd4ba00 // vldr s23, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee194b90 // vmov.32 r4, d25[0] .long 0xf2000cfc // vfma.f32 q0, q8, q14 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xf26021f0 // vorr q9, q8, q8 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed94ba00 // vldr s22, [r4] .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xedd5aa00 // vldr s21, [r5] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xed92aa00 // vldr s20, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd47a00 // vldr s15, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed947a00 // vldr s14, [r4] .long 0xee3b4b90 // vmov.32 r4, d27[1] .long 0xedd56a00 // vldr s13, [r5] .long 0xee3a5b90 // vmov.32 r5, d26[1] .long 0xed926a00 // vldr s12, [r2] .long 0xee1a2b90 // vmov.32 r2, d26[0] .long 0xf2660d4a // vsub.f32 q8, q3, q5 .long 0xf200acf4 // vfma.f32 q5, q8, q10 .long 0xf26601f6 // vorr q8, q11, q11 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd47a00 // vldr s15, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee1b4b90 // vmov.32 r4, d27[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed947a00 // vldr s14, [r4] .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xedd56a00 // vldr s13, [r5] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xed926a00 // vldr s12, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd4da00 // vldr s27, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed94da00 // vldr s26, [r4] .long 0xedd5ca00 // vldr s25, [r5] .long 0xed92ca00 // vldr s24, [r2] .long 0xf26c0d46 // vsub.f32 q8, q6, q3 .long 0xf2006cf4 // vfma.f32 q3, q8, q10 .long 0xf2660d4a // vsub.f32 q8, q3, q5 .long 0xf200acfc // vfma.f32 q5, q8, q14 .long 0xf2c0c052 // vmov.i32 q14, #2 .long 0xf26808ec // vadd.i32 q8, q12, q14 .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd47a00 // vldr s15, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xf26208ec // vadd.i32 q8, q9, q14 .long 0xf2c02052 // vmov.i32 q9, #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed947a00 // vldr s14, [r4] .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xedd56a00 // vldr s13, [r5] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xed926a00 // vldr s12, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xedd4da00 // vldr s27, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed94da00 // vldr s26, [r4] .long 0xedd5ca00 // vldr s25, [r5] .long 0xed92ca00 // vldr s24, [r2] .long 0xf26c0d46 // vsub.f32 q8, q6, q3 .long 0xf2006cf4 // vfma.f32 q3, q8, q10 .long 0xf26a08e2 // vadd.i32 q8, q13, q9 .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd4da00 // vldr s27, [r4] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xf26608e2 // vadd.i32 q8, q11, q9 .long 0xee10eb90 // vmov.32 lr, d16[0] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xed94da00 // vldr s26, [r4] .long 0xee114b90 // vmov.32 r4, d17[0] .long 0xedd5ca00 // vldr s25, [r5] .long 0xee305b90 // vmov.32 r5, d16[1] .long 0xed92ca00 // vldr s24, [r2] .long 0xee312b90 // vmov.32 r2, d17[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd2fa00 // vldr s31, [r2] .long 0xe0832104 // add r2, r3, r4, lsl #2 .long 0xed92fa00 // vldr s30, [r2] .long 0xe083210e // add r2, r3, lr, lsl #2 .long 0xe28d3040 // add r3, sp, #64 .long 0xedd5ea00 // vldr s29, [r5] .long 0xecd32b04 // vldmia r3, {d18-d19} .long 0xe28d3060 // add r3, sp, #96 .long 0xed92ea00 // vldr s28, [r2] .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe1a0100c // mov r1, ip .long 0xf26e0d4c // vsub.f32 q8, q7, q6 .long 0xf200ccf4 // vfma.f32 q6, q8, q10 .long 0xf2684d42 // vsub.f32 q10, q4, q1 .long 0xf26c0d46 // vsub.f32 q8, q6, q3 .long 0xf2006cfe // vfma.f32 q3, q8, q15 .long 0xecd30b04 // vldmia r3, {d16-d17} .long 0xe28d3050 // add r3, sp, #80 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xf26a2d40 // vsub.f32 q9, q5, q0 .long 0xf2042cf0 // vfma.f32 q1, q10, q8 .long 0xf2666d44 // vsub.f32 q11, q3, q2 .long 0xec936b04 // vldmia r3, {d6-d7} .long 0xf2020cf0 // vfma.f32 q0, q9, q8 .long 0xf2064cf0 // vfma.f32 q2, q11, q8 .long 0xe28dd090 // add sp, sp, #144 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd4830 // pop {r4, r5, fp, lr} .long 0xe12fff12 // bx r2 HIDDEN _sk_clut_4D_vfp4 .globl _sk_clut_4D_vfp4 FUNCTION(_sk_clut_4D_vfp4) _sk_clut_4D_vfp4: .long 0xe92d41f0 // push {r4, r5, r6, r7, r8, lr} .long 0xed2d8b10 // vpush {d8-d15} .long 0xe24ddf5a // sub sp, sp, #360 .long 0xe2812004 // add r2, r1, #4 .long 0xe58d2164 // str r2, [sp, #356] .long 0xe1a0c001 // mov ip, r1 .long 0xe28d70a0 // add r7, sp, #160 .long 0xe49c2008 // ldr r2, [ip], #8 .long 0xf2c04052 // vmov.i32 q10, #2 .long 0xe8924008 // ldm r2, {r3, lr} .long 0xe592500c // ldr r5, [r2, #12] .long 0xe5924008 // ldr r4, [r2, #8] .long 0xe2456001 // sub r6, r5, #1 .long 0xe5922010 // ldr r2, [r2, #16] .long 0xee065b90 // vmov.32 d22[0], r5 .long 0xe28d50c0 // add r5, sp, #192 .long 0xeea06b90 // vdup.32 q8, r6 .long 0xe24e6001 // sub r6, lr, #1 .long 0xf3fb0660 // vcvt.f32.s32 q8, q8 .long 0xe28dee15 // add lr, sp, #336 .long 0xeeaa6b90 // vdup.32 q13, r6 .long 0xf3fba66a // vcvt.f32.s32 q13, q13 .long 0xf3402dd4 // vmul.f32 q9, q8, q2 .long 0xee002b90 // vmov.32 d16[0], r2 .long 0xf226a9f0 // vmul.i32 q5, q11, q8 .long 0xecc72b04 // vstmia r7, {d18-d19} .long 0xf3fb8762 // vcvt.s32.f32 q12, q9 .long 0xeea22b90 // vdup.32 q9, r2 .long 0xe2422001 // sub r2, r2, #1 .long 0xeeae2b90 // vdup.32 q15, r2 .long 0xe2442001 // sub r2, r4, #1 .long 0xf3fbe66e // vcvt.f32.s32 q15, q15 .long 0xf26869f2 // vmul.i32 q11, q12, q9 .long 0xecc58b04 // vstmia r5, {d24-d25} .long 0xe28d5d05 // add r5, sp, #320 .long 0xf34e0dd6 // vmul.f32 q8, q15, q3 .long 0xee084b90 // vmov.32 d24[0], r4 .long 0xf22849da // vmul.i32 q2, q12, q5 .long 0xeea82b90 // vdup.32 q12, r2 .long 0xecc52b04 // vstmia r5, {d18-d19} .long 0xf3fb8668 // vcvt.f32.s32 q12, q12 .long 0xf2c02053 // vmov.i32 q9, #3 .long 0xf22689f2 // vmul.i32 q4, q11, q9 .long 0xf3082dd2 // vmul.f32 q1, q12, q1 .long 0xf3fb8760 // vcvt.s32.f32 q12, q8 .long 0xf34a6dd0 // vmul.f32 q11, q13, q0 .long 0xf3bb6742 // vcvt.s32.f32 q3, q1 .long 0xec8e8b04 // vstmia lr, {d8-d9} .long 0xe28dee13 // add lr, sp, #304 .long 0xf22889e2 // vmla.i32 q4, q12, q9 .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xe28dee12 // add lr, sp, #288 .long 0xf3e6084a // vmul.i32 q8, q3, d10[0] .long 0xecce8b04 // vstmia lr, {d24-d25} .long 0xe28de0e0 // add lr, sp, #224 .long 0xf3fbe766 // vcvt.s32.f32 q15, q11 .long 0xf2280158 // vorr q0, q4, q4 .long 0xf2c08052 // vmov.i32 q12, #2 .long 0xf22009e2 // vmla.i32 q0, q8, q9 .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xe28dee11 // add lr, sp, #272 .long 0xf3eec8c4 // vmul.i32 q14, q15, d4[0] .long 0xf2600150 // vorr q8, q0, q0 .long 0xf220c150 // vorr q6, q0, q0 .long 0xf3fbe66e // vcvt.f32.s32 q15, q15 .long 0xf26c09e2 // vmla.i32 q8, q14, q9 .long 0xf26088e8 // vadd.i32 q12, q8, q12 .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xe28de0f0 // add lr, sp, #240 .long 0xee395b90 // vmov.32 r5, d25[1] .long 0xee386b90 // vmov.32 r6, d24[1] .long 0xee182b90 // vmov.32 r2, d24[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xedd5fa00 // vldr s31, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee195b90 // vmov.32 r5, d25[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed95fa00 // vldr s30, [r5] .long 0xedd6ea00 // vldr s29, [r6] .long 0xed92ea00 // vldr s28, [r2] .long 0xe28f2ffb // add r2, pc, #1004 .long 0xf4620acf // vld1.64 {d16-d17}, [r2] .long 0xf2060de0 // vadd.f32 q0, q11, q8 .long 0xf260a1f0 // vorr q13, q8, q8 .long 0xf3bb0740 // vcvt.s32.f32 q0, q0 .long 0xf3e00844 // vmul.i32 q8, q0, d4[0] .long 0xf220c9e2 // vmla.i32 q6, q8, q9 .long 0xf22c0864 // vadd.i32 q0, q6, q10 .long 0xec8ecb04 // vstmia lr, {d12-d13} .long 0xf226cdee // vsub.f32 q6, q11, q15 .long 0xe28de0d0 // add lr, sp, #208 .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xf242ed6a // vadd.f32 q15, q1, q13 .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xf3fbe76e // vcvt.s32.f32 q15, q15 .long 0xf3ee68ca // vmul.i32 q11, q15, d10[0] .long 0xf22689e2 // vmla.i32 q4, q11, q9 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xf266e1f6 // vorr q15, q11, q11 .long 0xf2688158 // vorr q12, q4, q4 .long 0xf26c89e2 // vmla.i32 q12, q14, q9 .long 0xf22089e2 // vmla.i32 q4, q8, q9 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xecceab04 // vstmia lr, {d26-d27} .long 0xe28de030 // add lr, sp, #48 .long 0xf2240d4e // vsub.f32 q0, q2, q7 .long 0xecceeb04 // vstmia lr, {d30-d31} .long 0xe28dec01 // add lr, sp, #256 .long 0xf22848e4 // vadd.i32 q2, q12, q10 .long 0xecce8b04 // vstmia lr, {d24-d25} .long 0xe28de0b0 // add lr, sp, #176 .long 0xee355b10 // vmov.32 r5, d5[1] .long 0xf200ec5c // vfma.f32 q7, q0, q6 .long 0xee142b10 // vmov.32 r2, d4[0] .long 0xee346b10 // vmov.32 r6, d4[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee155b10 // vmov.32 r5, d5[0] .long 0xf2284864 // vadd.i32 q2, q4, q10 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xee355b10 // vmov.32 r5, d5[1] .long 0xedd60a00 // vldr s1, [r6] .long 0xee346b10 // vmov.32 r6, d4[1] .long 0xed920a00 // vldr s0, [r2] .long 0xec8e8b04 // vstmia lr, {d8-d9} .long 0xe28de0a0 // add lr, sp, #160 .long 0xee142b10 // vmov.32 r2, d4[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd5ba00 // vldr s23, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee155b10 // vmov.32 r5, d5[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed95ba00 // vldr s22, [r5] .long 0xedd6aa00 // vldr s21, [r6] .long 0xed92aa00 // vldr s20, [r2] .long 0xf22a4d40 // vsub.f32 q2, q5, q0 .long 0xf2040c5c // vfma.f32 q0, q2, q6 .long 0xf3bb4646 // vcvt.f32.s32 q2, q3 .long 0xf2806052 // vmov.i32 q3, #2 .long 0xf2624d44 // vsub.f32 q10, q1, q2 .long 0xf2200d4e // vsub.f32 q0, q0, q7 .long 0xeccd4b04 // vstmia sp, {d20-d21} .long 0xf200ec74 // vfma.f32 q7, q0, q10 .long 0xec9e8b04 // vldmia lr, {d8-d9} .long 0xe28ded05 // add lr, sp, #320 .long 0xf2080d6a // vadd.f32 q0, q4, q13 .long 0xecde4b04 // vldmia lr, {d20-d21} .long 0xe28ded05 // add lr, sp, #320 .long 0xf2c0a052 // vmov.i32 q13, #2 .long 0xf3bb0740 // vcvt.s32.f32 q0, q0 .long 0xf2604974 // vmul.i32 q10, q0, q10 .long 0xf224a9f2 // vmul.i32 q5, q10, q9 .long 0xec8eab04 // vstmia lr, {d10-d11} .long 0xe28dee12 // add lr, sp, #288 .long 0xecde4b04 // vldmia lr, {d20-d21} .long 0xe28de0e0 // add lr, sp, #224 .long 0xf224a9e2 // vmla.i32 q5, q10, q9 .long 0xecde4b04 // vldmia lr, {d20-d21} .long 0xe28de020 // add lr, sp, #32 .long 0xeccecb04 // vstmia lr, {d28-d29} .long 0xe28de090 // add lr, sp, #144 .long 0xf26a615a // vorr q11, q5, q5 .long 0xf26469e2 // vmla.i32 q11, q10, q9 .long 0xf22ea9e2 // vmla.i32 q5, q15, q9 .long 0xf26641f6 // vorr q10, q11, q11 .long 0xf26c49e2 // vmla.i32 q10, q14, q9 .long 0xf26681f6 // vorr q12, q11, q11 .long 0xf26089e2 // vmla.i32 q12, q8, q9 .long 0xf22408ea // vadd.i32 q0, q10, q13 .long 0xf26461f4 // vorr q11, q10, q10 .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xecce6b04 // vstmia lr, {d22-d23} .long 0xe28de010 // add lr, sp, #16 .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xf22808ea // vadd.i32 q0, q12, q13 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xf268a1f8 // vorr q13, q12, q12 .long 0xf26a815a // vorr q12, q5, q5 .long 0xf26c89e2 // vmla.i32 q12, q14, q9 .long 0xf220a9e2 // vmla.i32 q5, q8, q9 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xed922a00 // vldr s4, [r2] .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xe28de080 // add lr, sp, #128 .long 0xecceab04 // vstmia lr, {d26-d27} .long 0xe28de070 // add lr, sp, #112 .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xecce8b04 // vstmia lr, {d24-d25} .long 0xe28de0c0 // add lr, sp, #192 .long 0xf2240d42 // vsub.f32 q0, q2, q1 .long 0xecddeb04 // vldmia sp, {d30-d31} .long 0xf22848c6 // vadd.i32 q2, q12, q3 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0c0 // add lr, sp, #192 .long 0xee355b10 // vmov.32 r5, d5[1] .long 0xf2002c5c // vfma.f32 q1, q0, q6 .long 0xee142b10 // vmov.32 r2, d4[0] .long 0xee346b10 // vmov.32 r6, d4[1] .long 0xf3fbc660 // vcvt.f32.s32 q14, q8 .long 0xf2680d6c // vsub.f32 q8, q4, q14 .long 0xf2808051 // vmov.i32 q4, #1 .long 0xf26041f0 // vorr q10, q8, q8 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee155b10 // vmov.32 r5, d5[0] .long 0xf22a4846 // vadd.i32 q2, q5, q3 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xee355b10 // vmov.32 r5, d5[1] .long 0xedd60a00 // vldr s1, [r6] .long 0xee346b10 // vmov.32 r6, d4[1] .long 0xed920a00 // vldr s0, [r2] .long 0xee142b10 // vmov.32 r2, d4[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd57a00 // vldr s15, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee155b10 // vmov.32 r5, d5[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed957a00 // vldr s14, [r5] .long 0xedd66a00 // vldr s13, [r6] .long 0xed926a00 // vldr s12, [r2] .long 0xecce4b04 // vstmia lr, {d20-d21} .long 0xe28de0a0 // add lr, sp, #160 .long 0xf2264d40 // vsub.f32 q2, q3, q0 .long 0xf2040c5c // vfma.f32 q0, q2, q6 .long 0xf2200d42 // vsub.f32 q0, q0, q1 .long 0xf2002c7e // vfma.f32 q1, q0, q15 .long 0xf2220d4e // vsub.f32 q0, q1, q7 .long 0xf200ec70 // vfma.f32 q7, q0, q8 .long 0xec8eeb04 // vstmia lr, {d14-d15} .long 0xe28dee11 // add lr, sp, #272 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0f0 // add lr, sp, #240 .long 0xf260c8c8 // vadd.i32 q14, q8, q4 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28dec01 // add lr, sp, #256 .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd5fa00 // vldr s31, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xf260c8c8 // vadd.i32 q14, q8, q4 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0b0 // add lr, sp, #176 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed95fa00 // vldr s30, [r5] .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xedd6ea00 // vldr s29, [r6] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xed92ea00 // vldr s28, [r2] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xedd60a00 // vldr s1, [r6] .long 0xed920a00 // vldr s0, [r2] .long 0xf260cd4e // vsub.f32 q14, q0, q7 .long 0xf20cecdc // vfma.f32 q7, q14, q6 .long 0xf260c8c8 // vadd.i32 q14, q8, q4 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28dee13 // add lr, sp, #304 .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xf260c8c8 // vadd.i32 q14, q8, q4 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0d0 // add lr, sp, #208 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xedd60a00 // vldr s1, [r6] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xed920a00 // vldr s0, [r2] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf262cd40 // vsub.f32 q14, q1, q0 .long 0xf20c0cdc // vfma.f32 q0, q14, q6 .long 0xf260cd4e // vsub.f32 q14, q0, q7 .long 0xf20cecfe // vfma.f32 q7, q14, q15 .long 0xea000003 // b 7918 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0x3f7ff972 // .word 0x3f7ff972 .long 0xf266c8c8 // vadd.i32 q14, q11, q4 .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xf26ac8c8 // vadd.i32 q14, q13, q4 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xedd60a00 // vldr s1, [r6] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xed920a00 // vldr s0, [r2] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf262cd40 // vsub.f32 q14, q1, q0 .long 0xf20c0cdc // vfma.f32 q0, q14, q6 .long 0xf268c8c8 // vadd.i32 q14, q12, q4 .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xf26ac848 // vadd.i32 q14, q5, q4 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd57a00 // vldr s15, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed957a00 // vldr s14, [r5] .long 0xedd66a00 // vldr s13, [r6] .long 0xed926a00 // vldr s12, [r2] .long 0xf266cd42 // vsub.f32 q14, q3, q1 .long 0xf20c2cdc // vfma.f32 q1, q14, q6 .long 0xf262cd40 // vsub.f32 q14, q1, q0 .long 0xf20c0cfe // vfma.f32 q0, q14, q15 .long 0xf260cd4e // vsub.f32 q14, q0, q7 .long 0xf20cecf4 // vfma.f32 q7, q14, q10 .long 0xecde4b04 // vldmia lr, {d20-d21} .long 0xe28dee15 // add lr, sp, #336 .long 0xf2408de4 // vadd.f32 q12, q8, q10 .long 0xecde4b04 // vldmia lr, {d20-d21} .long 0xe28de0e0 // add lr, sp, #224 .long 0xec9e4b04 // vldmia lr, {d4-d5} .long 0xe28de020 // add lr, sp, #32 .long 0xf3fbc768 // vcvt.s32.f32 q14, q12 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de060 // add lr, sp, #96 .long 0xf26c49e2 // vmla.i32 q10, q14, q9 .long 0xf26461f4 // vorr q11, q10, q10 .long 0xf2646962 // vmla.i32 q11, q2, q9 .long 0xf266a1f6 // vorr q13, q11, q11 .long 0xf260a9e2 // vmla.i32 q13, q8, q9 .long 0xf26681f6 // vorr q12, q11, q11 .long 0xf22a08c8 // vadd.i32 q0, q13, q4 .long 0xecceab04 // vstmia lr, {d26-d27} .long 0xe28de010 // add lr, sp, #16 .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xecde6b04 // vldmia lr, {d22-d23} .long 0xe28de050 // add lr, sp, #80 .long 0xf26689e2 // vmla.i32 q12, q11, q9 .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd57a00 // vldr s15, [r5] .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xf22808c8 // vadd.i32 q0, q12, q4 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed957a00 // vldr s14, [r5] .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xedd66a00 // vldr s13, [r6] .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xed926a00 // vldr s12, [r2] .long 0xecce8b04 // vstmia lr, {d24-d25} .long 0xe28de030 // add lr, sp, #48 .long 0xf26081f0 // vorr q12, q8, q8 .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xecdeab04 // vldmia lr, {d26-d27} .long 0xe28de040 // add lr, sp, #64 .long 0xf26a49e2 // vmla.i32 q10, q13, q9 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2220d46 // vsub.f32 q0, q1, q3 .long 0xf2006c5c // vfma.f32 q3, q0, q6 .long 0xf22401f4 // vorr q0, q10, q10 .long 0xf22009e2 // vmla.i32 q0, q8, q9 .long 0xf26649e2 // vmla.i32 q10, q11, q9 .long 0xec8e0b04 // vstmia lr, {d0-d1} .long 0xf2200848 // vadd.i32 q0, q0, q4 .long 0xe28dee15 // add lr, sp, #336 .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xf26408c8 // vadd.i32 q8, q10, q4 .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xecce4b04 // vstmia lr, {d20-d21} .long 0xe28ded05 // add lr, sp, #320 .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xedd60a00 // vldr s1, [r6] .long 0xed920a00 // vldr s0, [r2] .long 0xf2600d42 // vsub.f32 q8, q0, q1 .long 0xf2002cdc // vfma.f32 q1, q8, q6 .long 0xf2620d46 // vsub.f32 q8, q1, q3 .long 0xf2006cfe // vfma.f32 q3, q8, q15 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0e0 // add lr, sp, #224 .long 0xf26c09e2 // vmla.i32 q8, q14, q9 .long 0xf260c1f0 // vorr q14, q8, q8 .long 0xf264c962 // vmla.i32 q14, q2, q9 .long 0xf22021f0 // vorr q1, q8, q8 .long 0xf22a29e2 // vmla.i32 q1, q13, q9 .long 0xf26c01fc // vorr q8, q14, q14 .long 0xf26809e2 // vmla.i32 q8, q12, q9 .long 0xf266c9e2 // vmla.i32 q14, q11, q9 .long 0xf22008c8 // vadd.i32 q0, q8, q4 .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xe28de0d0 // add lr, sp, #208 .long 0xf2624152 // vorr q10, q1, q1 .long 0xee315b10 // vmov.32 r5, d1[1] .long 0xf26649e2 // vmla.i32 q10, q11, q9 .long 0xee306b10 // vmov.32 r6, d0[1] .long 0xf26c08c8 // vadd.i32 q8, q14, q4 .long 0xee102b10 // vmov.32 r2, d0[0] .long 0xf26ca15c // vorr q13, q6, q6 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xee115b10 // vmov.32 r5, d1[0] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd64a00 // vldr s9, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed924a00 // vldr s8, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xedd60a00 // vldr s1, [r6] .long 0xed920a00 // vldr s0, [r2] .long 0xf2600d44 // vsub.f32 q8, q0, q2 .long 0xf2004cdc // vfma.f32 q2, q8, q6 .long 0xf2620152 // vorr q8, q1, q1 .long 0xf26809e2 // vmla.i32 q8, q12, q9 .long 0xecce0b04 // vstmia lr, {d16-d17} .long 0xf26008c8 // vadd.i32 q8, q8, q4 .long 0xe28ded05 // add lr, sp, #320 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xf26408c8 // vadd.i32 q8, q10, q4 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xecce4b04 // vstmia lr, {d20-d21} .long 0xe28de0c0 // add lr, sp, #192 .long 0xf26e41fe // vorr q10, q15, q15 .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xecde6b04 // vldmia lr, {d22-d23} .long 0xe28dee11 // add lr, sp, #272 .long 0xf26621f6 // vorr q9, q11, q11 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xedd60a00 // vldr s1, [r6] .long 0xed920a00 // vldr s0, [r2] .long 0xf2600d42 // vsub.f32 q8, q0, q1 .long 0xf2002cdc // vfma.f32 q1, q8, q6 .long 0xf2620d44 // vsub.f32 q8, q1, q2 .long 0xf2004cfe // vfma.f32 q2, q8, q15 .long 0xf2640d46 // vsub.f32 q8, q2, q3 .long 0xf2006cf6 // vfma.f32 q3, q8, q11 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0f0 // add lr, sp, #240 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd51a00 // vldr s3, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28dec01 // add lr, sp, #256 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed951a00 // vldr s2, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd60a00 // vldr s1, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed920a00 // vldr s0, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2620d40 // vsub.f32 q8, q1, q0 .long 0xf2000cdc // vfma.f32 q0, q8, q6 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0b0 // add lr, sp, #176 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de090 // add lr, sp, #144 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xf2640d42 // vsub.f32 q8, q2, q1 .long 0xf2002cdc // vfma.f32 q1, q8, q6 .long 0xf2620d40 // vsub.f32 q8, q1, q0 .long 0xf2000cfe // vfma.f32 q0, q8, q15 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de080 // add lr, sp, #128 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd59a00 // vldr s19, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de070 // add lr, sp, #112 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed959a00 // vldr s18, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd68a00 // vldr s17, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed928a00 // vldr s16, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2620d48 // vsub.f32 q8, q1, q4 .long 0xf2008cdc // vfma.f32 q4, q8, q6 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de060 // add lr, sp, #96 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee3b5b10 // vmov.32 r5, d11[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee3a6b10 // vmov.32 r6, d10[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee1a2b10 // vmov.32 r2, d10[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1b5b10 // vmov.32 r5, d11[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xf2640d42 // vsub.f32 q8, q2, q1 .long 0xf2002cdc // vfma.f32 q1, q8, q6 .long 0xf2620d48 // vsub.f32 q8, q1, q4 .long 0xf2008cf4 // vfma.f32 q4, q8, q10 .long 0xf2680d40 // vsub.f32 q8, q4, q0 .long 0xf2000cf2 // vfma.f32 q0, q8, q9 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de050 // add lr, sp, #80 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xf260e1f0 // vorr q15, q8, q8 .long 0xecde6b04 // vldmia lr, {d22-d23} .long 0xe28de040 // add lr, sp, #64 .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd59a00 // vldr s19, [r5] .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed959a00 // vldr s18, [r5] .long 0xee375b90 // vmov.32 r5, d23[1] .long 0xedd68a00 // vldr s17, [r6] .long 0xee366b90 // vmov.32 r6, d22[1] .long 0xed928a00 // vldr s16, [r2] .long 0xee162b90 // vmov.32 r2, d22[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee175b90 // vmov.32 r5, d23[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2620d48 // vsub.f32 q8, q1, q4 .long 0xf2008cdc // vfma.f32 q4, q8, q6 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28dee15 // add lr, sp, #336 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xf26081f0 // vorr q12, q8, q8 .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0e0 // add lr, sp, #224 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xf2640d42 // vsub.f32 q8, q2, q1 .long 0xf2002cdc // vfma.f32 q1, q8, q6 .long 0xf2620d48 // vsub.f32 q8, q1, q4 .long 0xf2008cf4 // vfma.f32 q4, q8, q10 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0d0 // add lr, sp, #208 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xedd5ba00 // vldr s23, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed95ba00 // vldr s22, [r5] .long 0xee3d5b90 // vmov.32 r5, d29[1] .long 0xedd6aa00 // vldr s21, [r6] .long 0xee3c6b90 // vmov.32 r6, d28[1] .long 0xed92aa00 // vldr s20, [r2] .long 0xee1c2b90 // vmov.32 r2, d28[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee1d5b90 // vmov.32 r5, d29[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2620d4a // vsub.f32 q8, q1, q5 .long 0xf200acdc // vfma.f32 q5, q8, q6 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28ded05 // add lr, sp, #320 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28dee15 // add lr, sp, #336 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xf2640d42 // vsub.f32 q8, q2, q1 .long 0xf2002cfa // vfma.f32 q1, q8, q13 .long 0xf2620d4a // vsub.f32 q8, q1, q5 .long 0xf200acf4 // vfma.f32 q5, q8, q10 .long 0xf26a0d48 // vsub.f32 q8, q5, q4 .long 0xf2008cf2 // vfma.f32 q4, q8, q9 .long 0xf2c02052 // vmov.i32 q9, #2 .long 0xf26e08e2 // vadd.i32 q8, q15, q9 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd5ba00 // vldr s23, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xf26608e2 // vadd.i32 q8, q11, q9 .long 0xf2c02052 // vmov.i32 q9, #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed95ba00 // vldr s22, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd6aa00 // vldr s21, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed92aa00 // vldr s20, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2620d4a // vsub.f32 q8, q1, q5 .long 0xf200acfa // vfma.f32 q5, q8, q13 .long 0xf26808e2 // vadd.i32 q8, q12, q9 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0e0 // add lr, sp, #224 .long 0xf26008e2 // vadd.i32 q8, q8, q9 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd55a00 // vldr s11, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xedd64a00 // vldr s9, [r6] .long 0xed924a00 // vldr s8, [r2] .long 0xf2640d42 // vsub.f32 q8, q2, q1 .long 0xf2002cfa // vfma.f32 q1, q8, q13 .long 0xf2620d4a // vsub.f32 q8, q1, q5 .long 0xf200acf4 // vfma.f32 q5, q8, q10 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28de0d0 // add lr, sp, #208 .long 0xf26008e2 // vadd.i32 q8, q8, q9 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd5da00 // vldr s27, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xf26c08e2 // vadd.i32 q8, q14, q9 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed95da00 // vldr s26, [r5] .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xedd6ca00 // vldr s25, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed92ca00 // vldr s24, [r2] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xedd62a00 // vldr s5, [r6] .long 0xed922a00 // vldr s4, [r2] .long 0xf2620d4c // vsub.f32 q8, q1, q6 .long 0xf200ccfa // vfma.f32 q6, q8, q13 .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xe28ded05 // add lr, sp, #320 .long 0xf26008e2 // vadd.i32 q8, q8, q9 .long 0xee315b90 // vmov.32 r5, d17[1] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xedd53a00 // vldr s7, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xecde0b04 // vldmia lr, {d16-d17} .long 0xf26008e2 // vadd.i32 q8, q8, q9 .long 0xee314b90 // vmov.32 r4, d17[1] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xed953a00 // vldr s6, [r5] .long 0xee115b90 // vmov.32 r5, d17[0] .long 0xedd62a00 // vldr s5, [r6] .long 0xee306b90 // vmov.32 r6, d16[1] .long 0xed922a00 // vldr s4, [r2] .long 0xe0834104 // add r4, r3, r4, lsl #2 .long 0xee102b90 // vmov.32 r2, d16[0] .long 0xedd45a00 // vldr s11, [r4] .long 0xe0835105 // add r5, r3, r5, lsl #2 .long 0xe0836106 // add r6, r3, r6, lsl #2 .long 0xed955a00 // vldr s10, [r5] .long 0xe0832102 // add r2, r3, r2, lsl #2 .long 0xedd64a00 // vldr s9, [r6] .long 0xe28d3e12 // add r3, sp, #288 .long 0xed924a00 // vldr s8, [r2] .long 0xecd32b04 // vldmia r3, {d18-d19} .long 0xe28d30c0 // add r3, sp, #192 .long 0xf2640d42 // vsub.f32 q8, q2, q1 .long 0xf3fb2662 // vcvt.f32.s32 q9, q9 .long 0xf2002cfa // vfma.f32 q1, q8, q13 .long 0xf2620d4c // vsub.f32 q8, q1, q6 .long 0xf200ccf4 // vfma.f32 q6, q8, q10 .long 0xecd34b04 // vldmia r3, {d20-d21} .long 0xe28d3e13 // add r3, sp, #304 .long 0xf26c0d4a // vsub.f32 q8, q6, q5 .long 0xf200acf4 // vfma.f32 q5, q8, q10 .long 0xecd30b04 // vldmia r3, {d16-d17} .long 0xe28d30a0 // add r3, sp, #160 .long 0xf2600de2 // vsub.f32 q8, q8, q9 .long 0xecd38b04 // vldmia r3, {d24-d25} .long 0xe28f2038 // add r2, pc, #56 .long 0xf2664d4e // vsub.f32 q10, q3, q7 .long 0xf4226acf // vld1.64 {d6-d7}, [r2] .long 0xf2682d40 // vsub.f32 q9, q4, q0 .long 0xe5912004 // ldr r2, [r1, #4] .long 0xe1a0100c // mov r1, ip .long 0xf26a6d68 // vsub.f32 q11, q5, q12 .long 0xf204ecf0 // vfma.f32 q7, q10, q8 .long 0xf2020cf0 // vfma.f32 q0, q9, q8 .long 0xf2468cf0 // vfma.f32 q12, q11, q8 .long 0xf22e215e // vorr q1, q7, q7 .long 0xf22841f8 // vorr q2, q12, q12 .long 0xe28ddf5a // add sp, sp, #360 .long 0xecbd8b10 // vpop {d8-d15} .long 0xe8bd41f0 // pop {r4, r5, r6, r7, r8, lr} .long 0xe12fff12 // bx r2 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 .long 0x3f800000 // .word 0x3f800000 #elif defined(__x86_64__) BALIGN32 HIDDEN _sk_start_pipeline_hsw .globl _sk_start_pipeline_hsw FUNCTION(_sk_start_pipeline_hsw) _sk_start_pipeline_hsw: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,40 // sub $0x28,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,137,194 // mov %rax,%rdx .byte 72,137,77,176 // mov %rcx,-0x50(%rbp) .byte 73,57,206 // cmp %rcx,%r14 .byte 115,117 // jae a1 <_sk_start_pipeline_hsw+0xa1> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,77,192 // mov %r9,-0x40(%rbp) .byte 72,137,85,200 // mov %rdx,-0x38(%rbp) .byte 73,137,221 // mov %rbx,%r13 .byte 73,137,244 // mov %rsi,%r12 .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 72,57,93,184 // cmp %rbx,-0x48(%rbp) .byte 119,45 // ja 7d <_sk_start_pipeline_hsw+0x7d> .byte 76,139,125,208 // mov -0x30(%rbp),%r15 .byte 69,49,192 // xor %r8d,%r8d .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,250 // mov %r15,%rdx .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,141,87,8 // lea 0x8(%r15),%rdx .byte 73,131,199,16 // add $0x10,%r15 .byte 73,57,223 // cmp %rbx,%r15 .byte 73,137,215 // mov %rdx,%r15 .byte 118,215 // jbe 54 <_sk_start_pipeline_hsw+0x54> .byte 73,137,216 // mov %rbx,%r8 .byte 73,41,208 // sub %rdx,%r8 .byte 116,19 // je 98 <_sk_start_pipeline_hsw+0x98> .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,255,198 // inc %r14 .byte 76,59,117,176 // cmp -0x50(%rbp),%r14 .byte 117,165 // jne 46 <_sk_start_pipeline_hsw+0x46> .byte 72,131,196,40 // add $0x28,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 197,248,119 // vzeroupper .byte 195 // retq HIDDEN _sk_just_return_hsw .globl _sk_just_return_hsw FUNCTION(_sk_just_return_hsw) _sk_just_return_hsw: .byte 195 // retq HIDDEN _sk_seed_shader_hsw .globl _sk_seed_shader_hsw FUNCTION(_sk_seed_shader_hsw) _sk_seed_shader_hsw: .byte 197,249,110,194 // vmovd %edx,%xmm0 .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,94,103,0,0 // vbroadcastss 0x675e(%rip),%ymm1 # 6828 <_sk_clut_4D_hsw+0x89e> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,88,7 // vaddps (%rdi),%ymm0,%ymm0 .byte 197,249,110,209 // vmovd %ecx,%xmm2 .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,21,62,103,0,0 // vbroadcastss 0x673e(%rip),%ymm2 # 682c <_sk_clut_4D_hsw+0x8a2> .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6 .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_dither_hsw .globl _sk_dither_hsw FUNCTION(_sk_dither_hsw) _sk_dither_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,121,110,194 // vmovd %edx,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 197,61,254,71,32 // vpaddd 0x20(%rdi),%ymm8,%ymm8 .byte 197,121,110,201 // vmovd %ecx,%xmm9 .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9 .byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9 .byte 196,98,125,88,21,5,103,0,0 // vpbroadcastd 0x6705(%rip),%ymm10 # 6830 <_sk_clut_4D_hsw+0x8a6> .byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11 .byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11 .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10 .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10 .byte 196,98,125,88,37,234,102,0,0 // vpbroadcastd 0x66ea(%rip),%ymm12 # 6834 <_sk_clut_4D_hsw+0x8aa> .byte 196,98,125,88,45,229,102,0,0 // vpbroadcastd 0x66e5(%rip),%ymm13 # 6838 <_sk_clut_4D_hsw+0x8ae> .byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14 .byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14 .byte 196,65,61,219,237 // vpand %ymm13,%ymm8,%ymm13 .byte 196,65,21,254,237 // vpaddd %ymm13,%ymm13,%ymm13 .byte 196,65,53,219,204 // vpand %ymm12,%ymm9,%ymm9 .byte 196,193,53,114,209,1 // vpsrld $0x1,%ymm9,%ymm9 .byte 196,65,61,219,196 // vpand %ymm12,%ymm8,%ymm8 .byte 196,193,61,114,208,2 // vpsrld $0x2,%ymm8,%ymm8 .byte 196,65,21,235,210 // vpor %ymm10,%ymm13,%ymm10 .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 .byte 196,65,37,235,214 // vpor %ymm14,%ymm11,%ymm10 .byte 196,65,61,235,194 // vpor %ymm10,%ymm8,%ymm8 .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,13,151,102,0,0 // vbroadcastss 0x6697(%rip),%ymm9 # 683c <_sk_clut_4D_hsw+0x8b2> .byte 196,98,125,24,21,146,102,0,0 // vbroadcastss 0x6692(%rip),%ymm10 # 6840 <_sk_clut_4D_hsw+0x8b6> .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10 .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2 .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2 .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_uniform_color_hsw .globl _sk_uniform_color_hsw FUNCTION(_sk_uniform_color_hsw) _sk_uniform_color_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0 .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1 .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2 .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_hsw .globl _sk_black_color_hsw FUNCTION(_sk_black_color_hsw) _sk_black_color_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,50,102,0,0 // vbroadcastss 0x6632(%rip),%ymm3 # 6844 <_sk_clut_4D_hsw+0x8ba> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_hsw .globl _sk_white_color_hsw FUNCTION(_sk_white_color_hsw) _sk_white_color_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,29,102,0,0 // vbroadcastss 0x661d(%rip),%ymm0 # 6848 <_sk_clut_4D_hsw+0x8be> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_rgba_hsw .globl _sk_load_rgba_hsw FUNCTION(_sk_load_rgba_hsw) _sk_load_rgba_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1 .byte 197,252,16,80,64 // vmovups 0x40(%rax),%ymm2 .byte 197,252,16,88,96 // vmovups 0x60(%rax),%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_rgba_hsw .globl _sk_store_rgba_hsw FUNCTION(_sk_store_rgba_hsw) _sk_store_rgba_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,17,0 // vmovups %ymm0,(%rax) .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax) .byte 197,252,17,80,64 // vmovups %ymm2,0x40(%rax) .byte 197,252,17,88,96 // vmovups %ymm3,0x60(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_hsw .globl _sk_clear_hsw FUNCTION(_sk_clear_hsw) _sk_clear_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_hsw .globl _sk_srcatop_hsw FUNCTION(_sk_srcatop_hsw) _sk_srcatop_hsw: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 196,98,125,24,5,192,101,0,0 // vbroadcastss 0x65c0(%rip),%ymm8 # 684c <_sk_clut_4D_hsw+0x8c2> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_hsw .globl _sk_dstatop_hsw FUNCTION(_sk_dstatop_hsw) _sk_dstatop_hsw: .byte 196,98,125,24,5,147,101,0,0 // vbroadcastss 0x6593(%rip),%ymm8 # 6850 <_sk_clut_4D_hsw+0x8c6> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 196,226,101,184,205 // vfmadd231ps %ymm5,%ymm3,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 196,226,101,184,214 // vfmadd231ps %ymm6,%ymm3,%ymm2 .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8 .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_hsw .globl _sk_srcin_hsw FUNCTION(_sk_srcin_hsw) _sk_srcin_hsw: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_hsw .globl _sk_dstin_hsw FUNCTION(_sk_dstin_hsw) _sk_dstin_hsw: .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_hsw .globl _sk_srcout_hsw FUNCTION(_sk_srcout_hsw) _sk_srcout_hsw: .byte 196,98,125,24,5,58,101,0,0 // vbroadcastss 0x653a(%rip),%ymm8 # 6854 <_sk_clut_4D_hsw+0x8ca> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_hsw .globl _sk_dstout_hsw FUNCTION(_sk_dstout_hsw) _sk_dstout_hsw: .byte 196,226,125,24,5,29,101,0,0 // vbroadcastss 0x651d(%rip),%ymm0 # 6858 <_sk_clut_4D_hsw+0x8ce> .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3 .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_hsw .globl _sk_srcover_hsw FUNCTION(_sk_srcover_hsw) _sk_srcover_hsw: .byte 196,98,125,24,5,0,101,0,0 // vbroadcastss 0x6500(%rip),%ymm8 # 685c <_sk_clut_4D_hsw+0x8d2> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_hsw .globl _sk_dstover_hsw FUNCTION(_sk_dstover_hsw) _sk_dstover_hsw: .byte 196,98,125,24,5,223,100,0,0 // vbroadcastss 0x64df(%rip),%ymm8 # 6860 <_sk_clut_4D_hsw+0x8d6> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1 .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2 .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_hsw .globl _sk_modulate_hsw FUNCTION(_sk_modulate_hsw) _sk_modulate_hsw: .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1 .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_hsw .globl _sk_multiply_hsw FUNCTION(_sk_multiply_hsw) _sk_multiply_hsw: .byte 196,98,125,24,5,170,100,0,0 // vbroadcastss 0x64aa(%rip),%ymm8 # 6864 <_sk_clut_4D_hsw+0x8da> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10 .byte 196,194,93,168,194 // vfmadd213ps %ymm10,%ymm4,%ymm0 .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10 .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10 .byte 196,194,85,168,202 // vfmadd213ps %ymm10,%ymm5,%ymm1 .byte 197,52,89,210 // vmulps %ymm2,%ymm9,%ymm10 .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10 .byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2 .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9 .byte 196,66,69,168,193 // vfmadd213ps %ymm9,%ymm7,%ymm8 .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_plus__hsw .globl _sk_plus__hsw FUNCTION(_sk_plus__hsw) _sk_plus__hsw: .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_hsw .globl _sk_screen_hsw FUNCTION(_sk_screen_hsw) _sk_screen_hsw: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 196,194,93,172,192 // vfnmadd213ps %ymm8,%ymm4,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 196,194,85,172,200 // vfnmadd213ps %ymm8,%ymm5,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 196,194,77,172,208 // vfnmadd213ps %ymm8,%ymm6,%ymm2 .byte 197,100,88,199 // vaddps %ymm7,%ymm3,%ymm8 .byte 196,194,69,172,216 // vfnmadd213ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__hsw .globl _sk_xor__hsw FUNCTION(_sk_xor__hsw) _sk_xor__hsw: .byte 196,98,125,24,5,37,100,0,0 // vbroadcastss 0x6425(%rip),%ymm8 # 6868 <_sk_clut_4D_hsw+0x8de> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1 .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2 .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2 .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3 .byte 196,98,69,168,195 // vfmadd213ps %ymm3,%ymm7,%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,195 // vmovaps %ymm8,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_darken_hsw .globl _sk_darken_hsw FUNCTION(_sk_darken_hsw) _sk_darken_hsw: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 196,193,124,95,193 // vmaxps %ymm9,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,193,116,95,201 // vmaxps %ymm9,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,173,99,0,0 // vbroadcastss 0x63ad(%rip),%ymm8 # 686c <_sk_clut_4D_hsw+0x8e2> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lighten_hsw .globl _sk_lighten_hsw FUNCTION(_sk_lighten_hsw) _sk_lighten_hsw: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,92,99,0,0 // vbroadcastss 0x635c(%rip),%ymm8 # 6870 <_sk_clut_4D_hsw+0x8e6> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_difference_hsw .globl _sk_difference_hsw FUNCTION(_sk_difference_hsw) _sk_difference_hsw: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,255,98,0,0 // vbroadcastss 0x62ff(%rip),%ymm8 # 6874 <_sk_clut_4D_hsw+0x8ea> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_exclusion_hsw .globl _sk_exclusion_hsw FUNCTION(_sk_exclusion_hsw) _sk_exclusion_hsw: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,189,98,0,0 // vbroadcastss 0x62bd(%rip),%ymm8 # 6878 <_sk_clut_4D_hsw+0x8ee> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_colorburn_hsw .globl _sk_colorburn_hsw FUNCTION(_sk_colorburn_hsw) _sk_colorburn_hsw: .byte 196,98,125,24,5,171,98,0,0 // vbroadcastss 0x62ab(%rip),%ymm8 # 687c <_sk_clut_4D_hsw+0x8f2> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,228 // vmulps %ymm4,%ymm8,%ymm12 .byte 197,68,92,236 // vsubps %ymm4,%ymm7,%ymm13 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 197,20,94,232 // vdivps %ymm0,%ymm13,%ymm13 .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13 .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13 .byte 196,66,101,168,235 // vfmadd213ps %ymm11,%ymm3,%ymm13 .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13 .byte 197,28,88,224 // vaddps %ymm0,%ymm12,%ymm12 .byte 196,193,124,194,194,0 // vcmpeqps %ymm10,%ymm0,%ymm0 .byte 196,195,21,74,196,0 // vblendvps %ymm0,%ymm12,%ymm13,%ymm0 .byte 197,92,194,231,0 // vcmpeqps %ymm7,%ymm4,%ymm12 .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11 .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0 .byte 197,52,89,217 // vmulps %ymm1,%ymm9,%ymm11 .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12 .byte 197,68,92,237 // vsubps %ymm5,%ymm7,%ymm13 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 197,20,94,233 // vdivps %ymm1,%ymm13,%ymm13 .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13 .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13 .byte 196,66,101,168,235 // vfmadd213ps %ymm11,%ymm3,%ymm13 .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13 .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12 .byte 196,193,116,194,202,0 // vcmpeqps %ymm10,%ymm1,%ymm1 .byte 196,195,21,74,204,16 // vblendvps %ymm1,%ymm12,%ymm13,%ymm1 .byte 197,84,194,231,0 // vcmpeqps %ymm7,%ymm5,%ymm12 .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11 .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1 .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9 .byte 196,65,108,194,210,0 // vcmpeqps %ymm10,%ymm2,%ymm10 .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11 .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12 .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12 .byte 197,28,94,226 // vdivps %ymm2,%ymm12,%ymm12 .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2 .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12 .byte 196,65,68,92,228 // vsubps %ymm12,%ymm7,%ymm12 .byte 196,66,101,168,225 // vfmadd213ps %ymm9,%ymm3,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,227,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm2 .byte 197,76,194,215,0 // vcmpeqps %ymm7,%ymm6,%ymm10 .byte 197,52,88,206 // vaddps %ymm6,%ymm9,%ymm9 .byte 196,195,109,74,209,160 // vblendvps %ymm10,%ymm9,%ymm2,%ymm2 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_colordodge_hsw .globl _sk_colordodge_hsw FUNCTION(_sk_colordodge_hsw) _sk_colordodge_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,98,125,24,13,182,97,0,0 // vbroadcastss 0x61b6(%rip),%ymm9 # 6880 <_sk_clut_4D_hsw+0x8f6> .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 .byte 197,100,89,228 // vmulps %ymm4,%ymm3,%ymm12 .byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13 .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12 .byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13 .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12 .byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12 .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12 .byte 197,20,88,232 // vaddps %ymm0,%ymm13,%ymm13 .byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0 .byte 196,195,29,74,197,0 // vblendvps %ymm0,%ymm13,%ymm12,%ymm0 .byte 196,65,92,194,224,0 // vcmpeqps %ymm8,%ymm4,%ymm12 .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11 .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0 .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11 .byte 197,100,89,229 // vmulps %ymm5,%ymm3,%ymm12 .byte 197,100,92,233 // vsubps %ymm1,%ymm3,%ymm13 .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12 .byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13 .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12 .byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12 .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12 .byte 197,20,88,233 // vaddps %ymm1,%ymm13,%ymm13 .byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1 .byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1 .byte 196,65,84,194,224,0 // vcmpeqps %ymm8,%ymm5,%ymm12 .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11 .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 .byte 197,100,92,226 // vsubps %ymm2,%ymm3,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 197,52,89,230 // vmulps %ymm6,%ymm9,%ymm12 .byte 196,65,68,93,219 // vminps %ymm11,%ymm7,%ymm11 .byte 196,66,101,168,218 // vfmadd213ps %ymm10,%ymm3,%ymm11 .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11 .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12 .byte 197,236,194,211,0 // vcmpeqps %ymm3,%ymm2,%ymm2 .byte 196,195,37,74,212,32 // vblendvps %ymm2,%ymm12,%ymm11,%ymm2 .byte 196,65,76,194,192,0 // vcmpeqps %ymm8,%ymm6,%ymm8 .byte 197,44,88,214 // vaddps %ymm6,%ymm10,%ymm10 .byte 196,195,109,74,210,128 // vblendvps %ymm8,%ymm10,%ymm2,%ymm2 .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hardlight_hsw .globl _sk_hardlight_hsw FUNCTION(_sk_hardlight_hsw) _sk_hardlight_hsw: .byte 196,98,125,24,5,215,96,0,0 // vbroadcastss 0x60d7(%rip),%ymm8 # 6884 <_sk_clut_4D_hsw+0x8fa> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,98,61,184,220 // vfmadd231ps %ymm4,%ymm8,%ymm11 .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9 .byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12 .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9 .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13 .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9 .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14 .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0 .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0 .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11 .byte 196,98,61,184,221 // vfmadd231ps %ymm5,%ymm8,%ymm11 .byte 197,116,88,225 // vaddps %ymm1,%ymm1,%ymm12 .byte 197,28,194,227,2 // vcmpleps %ymm3,%ymm12,%ymm12 .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13 .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13 .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14 .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1 .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1 .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10 .byte 197,108,88,218 // vaddps %ymm2,%ymm2,%ymm11 .byte 197,36,194,219,2 // vcmpleps %ymm3,%ymm11,%ymm11 .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12 .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12 .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13 .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2 .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2 .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_overlay_hsw .globl _sk_overlay_hsw FUNCTION(_sk_overlay_hsw) _sk_overlay_hsw: .byte 196,98,125,24,5,15,96,0,0 // vbroadcastss 0x600f(%rip),%ymm8 # 6888 <_sk_clut_4D_hsw+0x8fe> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,98,61,184,220 // vfmadd231ps %ymm4,%ymm8,%ymm11 .byte 197,92,88,204 // vaddps %ymm4,%ymm4,%ymm9 .byte 197,52,194,231,2 // vcmpleps %ymm7,%ymm9,%ymm12 .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9 .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13 .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9 .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14 .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0 .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0 .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11 .byte 196,98,61,184,221 // vfmadd231ps %ymm5,%ymm8,%ymm11 .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12 .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12 .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13 .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13 .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14 .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1 .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1 .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10 .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11 .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11 .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12 .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12 .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13 .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2 .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2 .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_softlight_hsw .globl _sk_softlight_hsw FUNCTION(_sk_softlight_hsw) _sk_softlight_hsw: .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp) .byte 197,252,40,209 // vmovaps %ymm1,%ymm2 .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 197,52,194,215,1 // vcmpltps %ymm7,%ymm9,%ymm10 .byte 197,92,94,199 // vdivps %ymm7,%ymm4,%ymm8 .byte 196,67,53,74,232,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm13 .byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8 .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8 .byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8 .byte 196,98,125,24,29,26,95,0,0 // vbroadcastss 0x5f1a(%rip),%ymm11 # 6890 <_sk_clut_4D_hsw+0x906> .byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12 .byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8 .byte 196,98,125,24,37,11,95,0,0 // vbroadcastss 0x5f0b(%rip),%ymm12 # 6894 <_sk_clut_4D_hsw+0x90a> .byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8 .byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14 .byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14 .byte 196,65,12,92,245 // vsubps %ymm13,%ymm14,%ymm14 .byte 197,92,88,252 // vaddps %ymm4,%ymm4,%ymm15 .byte 196,65,4,88,255 // vaddps %ymm15,%ymm15,%ymm15 .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15 .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14 .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15 .byte 196,98,125,24,5,206,94,0,0 // vbroadcastss 0x5ece(%rip),%ymm8 # 688c <_sk_clut_4D_hsw+0x902> .byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13 .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0 .byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 197,20,89,236 // vmulps %ymm4,%ymm13,%ymm13 .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0 .byte 197,4,194,243,2 // vcmpleps %ymm3,%ymm15,%ymm14 .byte 196,195,125,74,197,224 // vblendvps %ymm14,%ymm13,%ymm0,%ymm0 .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp) .byte 197,212,94,199 // vdivps %ymm7,%ymm5,%ymm0 .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0 .byte 197,124,88,240 // vaddps %ymm0,%ymm0,%ymm14 .byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14 .byte 196,66,13,168,246 // vfmadd213ps %ymm14,%ymm14,%ymm14 .byte 196,65,124,88,251 // vaddps %ymm11,%ymm0,%ymm15 .byte 196,65,4,89,246 // vmulps %ymm14,%ymm15,%ymm14 .byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14 .byte 197,124,82,248 // vrsqrtps %ymm0,%ymm15 .byte 196,65,124,83,255 // vrcpps %ymm15,%ymm15 .byte 197,4,92,248 // vsubps %ymm0,%ymm15,%ymm15 .byte 197,84,88,237 // vaddps %ymm5,%ymm5,%ymm13 .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13 .byte 197,20,194,239,2 // vcmpleps %ymm7,%ymm13,%ymm13 .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14 .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15 .byte 196,226,5,168,195 // vfmadd213ps %ymm3,%ymm15,%ymm0 .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15 .byte 196,65,4,89,237 // vmulps %ymm13,%ymm15,%ymm13 .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0 .byte 196,98,101,184,237 // vfmadd231ps %ymm5,%ymm3,%ymm13 .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14 .byte 196,99,21,74,240,224 // vblendvps %ymm14,%ymm0,%ymm13,%ymm14 .byte 197,204,94,199 // vdivps %ymm7,%ymm6,%ymm0 .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0 .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 .byte 196,66,53,168,201 // vfmadd213ps %ymm9,%ymm9,%ymm9 .byte 196,65,124,88,211 // vaddps %ymm11,%ymm0,%ymm10 .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9 .byte 196,66,125,184,204 // vfmadd231ps %ymm12,%ymm0,%ymm9 .byte 197,124,82,208 // vrsqrtps %ymm0,%ymm10 .byte 196,65,124,83,210 // vrcpps %ymm10,%ymm10 .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11 .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11 .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11 .byte 196,67,45,74,201,176 // vblendvps %ymm11,%ymm9,%ymm10,%ymm9 .byte 197,124,16,100,36,200 // vmovups -0x38(%rsp),%ymm12 .byte 196,65,28,88,212 // vaddps %ymm12,%ymm12,%ymm10 .byte 197,44,92,219 // vsubps %ymm3,%ymm10,%ymm11 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 196,226,37,168,195 // vfmadd213ps %ymm3,%ymm11,%ymm0 .byte 197,36,89,223 // vmulps %ymm7,%ymm11,%ymm11 .byte 196,65,36,89,201 // vmulps %ymm9,%ymm11,%ymm9 .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0 .byte 196,98,101,184,206 // vfmadd231ps %ymm6,%ymm3,%ymm9 .byte 197,44,194,211,2 // vcmpleps %ymm3,%ymm10,%ymm10 .byte 196,99,53,74,200,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm9 .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0 .byte 197,252,88,68,36,168 // vaddps -0x58(%rsp),%ymm0,%ymm0 .byte 197,172,89,202 // vmulps %ymm2,%ymm10,%ymm1 .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1 .byte 196,193,116,88,206 // vaddps %ymm14,%ymm1,%ymm1 .byte 196,193,44,89,212 // vmulps %ymm12,%ymm10,%ymm2 .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2 .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hue_hsw .globl _sk_hue_hsw FUNCTION(_sk_hue_hsw) _sk_hue_hsw: .byte 197,124,40,194 // vmovaps %ymm2,%ymm8 .byte 197,124,17,68,36,200 // vmovups %ymm8,-0x38(%rsp) .byte 197,252,17,76,36,168 // vmovups %ymm1,-0x58(%rsp) .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,108,89,203 // vmulps %ymm3,%ymm2,%ymm9 .byte 197,116,89,211 // vmulps %ymm3,%ymm1,%ymm10 .byte 197,60,89,219 // vmulps %ymm3,%ymm8,%ymm11 .byte 197,84,95,198 // vmaxps %ymm6,%ymm5,%ymm8 .byte 196,65,92,95,192 // vmaxps %ymm8,%ymm4,%ymm8 .byte 197,84,93,230 // vminps %ymm6,%ymm5,%ymm12 .byte 196,65,92,93,228 // vminps %ymm12,%ymm4,%ymm12 .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8 .byte 197,60,89,227 // vmulps %ymm3,%ymm8,%ymm12 .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8 .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13 .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8 .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8 .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15 .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9 .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9 .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9 .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9 .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10 .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,195,45,74,200,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm1 .byte 196,65,36,92,213 // vsubps %ymm13,%ymm11,%ymm10 .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12 .byte 196,98,125,24,53,210,92,0,0 // vbroadcastss 0x5cd2(%rip),%ymm14 # 6898 <_sk_clut_4D_hsw+0x90e> .byte 196,98,125,24,61,205,92,0,0 // vbroadcastss 0x5ccd(%rip),%ymm15 # 689c <_sk_clut_4D_hsw+0x912> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13 .byte 196,226,125,24,5,190,92,0,0 // vbroadcastss 0x5cbe(%rip),%ymm0 # 68a0 <_sk_clut_4D_hsw+0x916> .byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13 .byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10 .byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10 .byte 196,98,29,184,208 // vfmadd231ps %ymm0,%ymm12,%ymm10 .byte 196,66,101,170,234 // vfmsub213ps %ymm10,%ymm3,%ymm13 .byte 196,65,52,88,213 // vaddps %ymm13,%ymm9,%ymm10 .byte 196,65,116,88,221 // vaddps %ymm13,%ymm1,%ymm11 .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,193,36,93,204 // vminps %ymm12,%ymm11,%ymm1 .byte 197,44,93,233 // vminps %ymm1,%ymm10,%ymm13 .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9 .byte 196,66,45,184,206 // vfmadd231ps %ymm14,%ymm10,%ymm9 .byte 196,98,29,184,200 // vfmadd231ps %ymm0,%ymm12,%ymm9 .byte 196,193,44,92,193 // vsubps %ymm9,%ymm10,%ymm0 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 196,193,52,92,205 // vsubps %ymm13,%ymm9,%ymm1 .byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0 .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14 .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14 .byte 197,12,94,241 // vdivps %ymm1,%ymm14,%ymm14 .byte 196,65,28,92,249 // vsubps %ymm9,%ymm12,%ymm15 .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15 .byte 197,132,94,201 // vdivps %ymm1,%ymm15,%ymm1 .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13 .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14 .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14 .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11 .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1 .byte 196,195,117,74,204,208 // vblendvps %ymm13,%ymm12,%ymm1,%ymm1 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10 .byte 196,65,124,92,217 // vsubps %ymm9,%ymm0,%ymm11 .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,28,194,250,1 // vcmpltps %ymm10,%ymm12,%ymm15 .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11 .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0 .byte 196,65,12,92,217 // vsubps %ymm9,%ymm14,%ymm11 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11 .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11 .byte 196,65,116,92,241 // vsubps %ymm9,%ymm1,%ymm14 .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,195,117,74,201,240 // vblendvps %ymm15,%ymm9,%ymm1,%ymm1 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9 .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8 .byte 196,226,125,24,13,171,91,0,0 // vbroadcastss 0x5bab(%rip),%ymm1 # 68a4 <_sk_clut_4D_hsw+0x91a> .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11 .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2 .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0 .byte 197,172,89,76,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm1 .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 197,172,89,84,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm2 .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11 .byte 196,193,36,88,208 // vaddps %ymm8,%ymm11,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_saturation_hsw .globl _sk_saturation_hsw FUNCTION(_sk_saturation_hsw) _sk_saturation_hsw: .byte 197,124,40,194 // vmovaps %ymm2,%ymm8 .byte 197,252,17,76,36,168 // vmovups %ymm1,-0x58(%rsp) .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,252,17,68,36,200 // vmovups %ymm0,-0x38(%rsp) .byte 197,116,95,192 // vmaxps %ymm0,%ymm1,%ymm8 .byte 196,65,108,95,192 // vmaxps %ymm8,%ymm2,%ymm8 .byte 197,116,93,224 // vminps %ymm0,%ymm1,%ymm12 .byte 196,65,108,93,228 // vminps %ymm12,%ymm2,%ymm12 .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8 .byte 197,60,89,231 // vmulps %ymm7,%ymm8,%ymm12 .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8 .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13 .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8 .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8 .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15 .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9 .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9 .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9 .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9 .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10 .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,195,45,74,200,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm1 .byte 196,65,36,92,213 // vsubps %ymm13,%ymm11,%ymm10 .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12 .byte 196,98,125,24,53,194,90,0,0 // vbroadcastss 0x5ac2(%rip),%ymm14 # 68a8 <_sk_clut_4D_hsw+0x91e> .byte 196,98,125,24,61,189,90,0,0 // vbroadcastss 0x5abd(%rip),%ymm15 # 68ac <_sk_clut_4D_hsw+0x922> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13 .byte 196,226,125,24,5,174,90,0,0 // vbroadcastss 0x5aae(%rip),%ymm0 # 68b0 <_sk_clut_4D_hsw+0x926> .byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13 .byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10 .byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10 .byte 196,98,29,184,208 // vfmadd231ps %ymm0,%ymm12,%ymm10 .byte 196,66,101,170,234 // vfmsub213ps %ymm10,%ymm3,%ymm13 .byte 196,65,52,88,213 // vaddps %ymm13,%ymm9,%ymm10 .byte 196,65,116,88,221 // vaddps %ymm13,%ymm1,%ymm11 .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,193,36,93,204 // vminps %ymm12,%ymm11,%ymm1 .byte 197,44,93,233 // vminps %ymm1,%ymm10,%ymm13 .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9 .byte 196,66,45,184,206 // vfmadd231ps %ymm14,%ymm10,%ymm9 .byte 196,98,29,184,200 // vfmadd231ps %ymm0,%ymm12,%ymm9 .byte 196,193,44,92,193 // vsubps %ymm9,%ymm10,%ymm0 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 196,193,52,92,205 // vsubps %ymm13,%ymm9,%ymm1 .byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0 .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14 .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14 .byte 197,12,94,241 // vdivps %ymm1,%ymm14,%ymm14 .byte 196,65,28,92,249 // vsubps %ymm9,%ymm12,%ymm15 .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15 .byte 197,132,94,201 // vdivps %ymm1,%ymm15,%ymm1 .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13 .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14 .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14 .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11 .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1 .byte 196,195,117,74,204,208 // vblendvps %ymm13,%ymm12,%ymm1,%ymm1 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10 .byte 196,65,124,92,217 // vsubps %ymm9,%ymm0,%ymm11 .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,28,194,250,1 // vcmpltps %ymm10,%ymm12,%ymm15 .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11 .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0 .byte 196,65,12,92,217 // vsubps %ymm9,%ymm14,%ymm11 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11 .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11 .byte 196,65,116,92,241 // vsubps %ymm9,%ymm1,%ymm14 .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,195,117,74,201,240 // vblendvps %ymm15,%ymm9,%ymm1,%ymm1 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9 .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8 .byte 196,226,125,24,13,155,89,0,0 // vbroadcastss 0x599b(%rip),%ymm1 # 68b4 <_sk_clut_4D_hsw+0x92a> .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11 .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2 .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0 .byte 197,172,89,76,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm1 .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 197,172,89,84,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm2 .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11 .byte 196,193,36,88,208 // vaddps %ymm8,%ymm11,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_color_hsw .globl _sk_color_hsw FUNCTION(_sk_color_hsw) _sk_color_hsw: .byte 197,124,40,202 // vmovaps %ymm2,%ymm9 .byte 197,124,17,76,36,200 // vmovups %ymm9,-0x38(%rsp) .byte 197,252,17,76,36,168 // vmovups %ymm1,-0x58(%rsp) .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8 .byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10 .byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11 .byte 196,98,125,24,45,52,89,0,0 // vbroadcastss 0x5934(%rip),%ymm13 # 68b8 <_sk_clut_4D_hsw+0x92e> .byte 196,98,125,24,53,47,89,0,0 // vbroadcastss 0x592f(%rip),%ymm14 # 68bc <_sk_clut_4D_hsw+0x932> .byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12 .byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12 .byte 196,98,125,24,61,32,89,0,0 // vbroadcastss 0x5920(%rip),%ymm15 # 68c0 <_sk_clut_4D_hsw+0x936> .byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12 .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9 .byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9 .byte 196,66,37,184,207 // vfmadd231ps %ymm15,%ymm11,%ymm9 .byte 196,66,101,170,225 // vfmsub213ps %ymm9,%ymm3,%ymm12 .byte 196,65,60,88,204 // vaddps %ymm12,%ymm8,%ymm9 .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8 .byte 196,65,52,93,224 // vminps %ymm8,%ymm9,%ymm12 .byte 196,65,44,89,198 // vmulps %ymm14,%ymm10,%ymm8 .byte 196,66,53,184,197 // vfmadd231ps %ymm13,%ymm9,%ymm8 .byte 196,66,37,184,199 // vfmadd231ps %ymm15,%ymm11,%ymm8 .byte 196,65,52,92,232 // vsubps %ymm8,%ymm9,%ymm13 .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13 .byte 196,65,60,92,244 // vsubps %ymm12,%ymm8,%ymm14 .byte 196,193,20,94,198 // vdivps %ymm14,%ymm13,%ymm0 .byte 196,65,44,92,248 // vsubps %ymm8,%ymm10,%ymm15 .byte 196,65,60,89,255 // vmulps %ymm15,%ymm8,%ymm15 .byte 196,65,4,94,254 // vdivps %ymm14,%ymm15,%ymm15 .byte 196,65,36,92,232 // vsubps %ymm8,%ymm11,%ymm13 .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13 .byte 196,65,20,94,238 // vdivps %ymm14,%ymm13,%ymm13 .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,65,12,194,228,2 // vcmpleps %ymm12,%ymm14,%ymm12 .byte 196,65,60,88,255 // vaddps %ymm15,%ymm8,%ymm15 .byte 196,67,5,74,250,192 // vblendvps %ymm12,%ymm10,%ymm15,%ymm15 .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10 .byte 196,65,60,88,237 // vaddps %ymm13,%ymm8,%ymm13 .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 196,195,125,74,201,192 // vblendvps %ymm12,%ymm9,%ymm0,%ymm1 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,52,95,202 // vmaxps %ymm10,%ymm9,%ymm9 .byte 196,65,116,92,208 // vsubps %ymm8,%ymm1,%ymm10 .byte 196,65,28,92,232 // vsubps %ymm8,%ymm12,%ymm13 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,193,28,194,193,1 // vcmpltps %ymm9,%ymm12,%ymm0 .byte 196,65,52,92,200 // vsubps %ymm8,%ymm9,%ymm9 .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10 .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10 .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1 .byte 196,65,4,92,208 // vsubps %ymm8,%ymm15,%ymm10 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10 .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10 .byte 196,67,5,74,210,0 // vblendvps %ymm0,%ymm10,%ymm15,%ymm10 .byte 196,65,36,92,248 // vsubps %ymm8,%ymm11,%ymm15 .byte 196,65,20,89,239 // vmulps %ymm15,%ymm13,%ymm13 .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0 .byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1 .byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8 .byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9 .byte 196,226,125,24,5,2,88,0,0 // vbroadcastss 0x5802(%rip),%ymm0 # 68c4 <_sk_clut_4D_hsw+0x93a> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2 .byte 197,236,88,193 // vaddps %ymm1,%ymm2,%ymm0 .byte 197,172,89,76,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm1 .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1 .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1 .byte 197,172,89,84,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm2 .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11 .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_luminosity_hsw .globl _sk_luminosity_hsw FUNCTION(_sk_luminosity_hsw) _sk_luminosity_hsw: .byte 197,124,40,202 // vmovaps %ymm2,%ymm9 .byte 197,124,17,76,36,168 // vmovups %ymm9,-0x58(%rsp) .byte 197,252,17,76,36,200 // vmovups %ymm1,-0x38(%rsp) .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 .byte 196,98,125,24,45,155,87,0,0 // vbroadcastss 0x579b(%rip),%ymm13 # 68c8 <_sk_clut_4D_hsw+0x93e> .byte 196,98,125,24,53,150,87,0,0 // vbroadcastss 0x5796(%rip),%ymm14 # 68cc <_sk_clut_4D_hsw+0x942> .byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12 .byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12 .byte 196,98,125,24,61,135,87,0,0 // vbroadcastss 0x5787(%rip),%ymm15 # 68d0 <_sk_clut_4D_hsw+0x946> .byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12 .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9 .byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9 .byte 196,66,37,184,207 // vfmadd231ps %ymm15,%ymm11,%ymm9 .byte 196,66,69,170,225 // vfmsub213ps %ymm9,%ymm7,%ymm12 .byte 196,65,60,88,204 // vaddps %ymm12,%ymm8,%ymm9 .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8 .byte 196,65,52,93,224 // vminps %ymm8,%ymm9,%ymm12 .byte 196,65,44,89,198 // vmulps %ymm14,%ymm10,%ymm8 .byte 196,66,53,184,197 // vfmadd231ps %ymm13,%ymm9,%ymm8 .byte 196,66,37,184,199 // vfmadd231ps %ymm15,%ymm11,%ymm8 .byte 196,65,52,92,232 // vsubps %ymm8,%ymm9,%ymm13 .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13 .byte 196,65,60,92,244 // vsubps %ymm12,%ymm8,%ymm14 .byte 196,193,20,94,198 // vdivps %ymm14,%ymm13,%ymm0 .byte 196,65,44,92,248 // vsubps %ymm8,%ymm10,%ymm15 .byte 196,65,60,89,255 // vmulps %ymm15,%ymm8,%ymm15 .byte 196,65,4,94,254 // vdivps %ymm14,%ymm15,%ymm15 .byte 196,65,36,92,232 // vsubps %ymm8,%ymm11,%ymm13 .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13 .byte 196,65,20,94,238 // vdivps %ymm14,%ymm13,%ymm13 .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,65,12,194,228,2 // vcmpleps %ymm12,%ymm14,%ymm12 .byte 196,65,60,88,255 // vaddps %ymm15,%ymm8,%ymm15 .byte 196,67,5,74,250,192 // vblendvps %ymm12,%ymm10,%ymm15,%ymm15 .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10 .byte 196,65,60,88,237 // vaddps %ymm13,%ymm8,%ymm13 .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 196,195,125,74,201,192 // vblendvps %ymm12,%ymm9,%ymm0,%ymm1 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,52,95,202 // vmaxps %ymm10,%ymm9,%ymm9 .byte 196,65,116,92,208 // vsubps %ymm8,%ymm1,%ymm10 .byte 196,65,28,92,232 // vsubps %ymm8,%ymm12,%ymm13 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,193,28,194,193,1 // vcmpltps %ymm9,%ymm12,%ymm0 .byte 196,65,52,92,200 // vsubps %ymm8,%ymm9,%ymm9 .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10 .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10 .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1 .byte 196,65,4,92,208 // vsubps %ymm8,%ymm15,%ymm10 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10 .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10 .byte 196,67,5,74,210,0 // vblendvps %ymm0,%ymm10,%ymm15,%ymm10 .byte 196,65,36,92,248 // vsubps %ymm8,%ymm11,%ymm15 .byte 196,65,20,89,239 // vmulps %ymm15,%ymm13,%ymm13 .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0 .byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1 .byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8 .byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9 .byte 196,226,125,24,5,105,86,0,0 // vbroadcastss 0x5669(%rip),%ymm0 # 68d4 <_sk_clut_4D_hsw+0x94a> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2 .byte 197,236,88,193 // vaddps %ymm1,%ymm2,%ymm0 .byte 197,172,89,76,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm1 .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1 .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1 .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2 .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11 .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_rgba_8888_hsw .globl _sk_srcover_rgba_8888_hsw FUNCTION(_sk_srcover_rgba_8888_hsw) _sk_srcover_rgba_8888_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,178,0,0,0 // jne 1386 <_sk_srcover_rgba_8888_hsw+0xd9> .byte 197,252,16,56 // vmovups (%rax),%ymm7 .byte 197,196,84,37,96,90,0,0 // vandps 0x5a60(%rip),%ymm7,%ymm4 # 6d40 <_sk_clut_4D_hsw+0xdb6> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,69,0,45,115,90,0,0 // vpshufb 0x5a73(%rip),%ymm7,%ymm5 # 6d60 <_sk_clut_4D_hsw+0xdd6> .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,226,69,0,53,134,90,0,0 // vpshufb 0x5a86(%rip),%ymm7,%ymm6 # 6d80 <_sk_clut_4D_hsw+0xdf6> .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,98,125,24,5,200,85,0,0 // vbroadcastss 0x55c8(%rip),%ymm8 # 68d8 <_sk_clut_4D_hsw+0x94e> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,98,125,24,13,191,85,0,0 // vbroadcastss 0x55bf(%rip),%ymm9 # 68dc <_sk_clut_4D_hsw+0x952> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9 .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9 .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10 .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 77,133,192 // test %r8,%r8 .byte 117,52 // jne 13af <_sk_srcover_rgba_8888_hsw+0x102> .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,226 // vmovq %r10,%xmm4 .byte 196,226,125,33,228 // vpmovsxbd %xmm4,%ymm4 .byte 196,226,93,44,56 // vmaskmovps (%rax),%ymm4,%ymm7 .byte 233,41,255,255,255 // jmpq 12d8 <_sk_srcover_rgba_8888_hsw+0x2b> .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,65,249,110,202 // vmovq %r10,%xmm9 .byte 196,66,125,33,201 // vpmovsxbd %xmm9,%ymm9 .byte 196,98,53,46,0 // vmaskmovps %ymm8,%ymm9,(%rax) .byte 235,170 // jmp 137f <_sk_srcover_rgba_8888_hsw+0xd2> HIDDEN _sk_clamp_0_hsw .globl _sk_clamp_0_hsw FUNCTION(_sk_clamp_0_hsw) _sk_clamp_0_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_1_hsw .globl _sk_clamp_1_hsw FUNCTION(_sk_clamp_1_hsw) _sk_clamp_1_hsw: .byte 196,98,125,24,5,229,84,0,0 // vbroadcastss 0x54e5(%rip),%ymm8 # 68e0 <_sk_clut_4D_hsw+0x956> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_hsw .globl _sk_clamp_a_hsw FUNCTION(_sk_clamp_a_hsw) _sk_clamp_a_hsw: .byte 196,98,125,24,5,200,84,0,0 // vbroadcastss 0x54c8(%rip),%ymm8 # 68e4 <_sk_clut_4D_hsw+0x95a> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_dst_hsw .globl _sk_clamp_a_dst_hsw FUNCTION(_sk_clamp_a_dst_hsw) _sk_clamp_a_dst_hsw: .byte 196,98,125,24,5,174,84,0,0 // vbroadcastss 0x54ae(%rip),%ymm8 # 68e8 <_sk_clut_4D_hsw+0x95e> .byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7 .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4 .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5 .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_hsw .globl _sk_set_rgb_hsw FUNCTION(_sk_set_rgb_hsw) _sk_set_rgb_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0 .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1 .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_hsw .globl _sk_swap_rb_hsw FUNCTION(_sk_swap_rb_hsw) _sk_swap_rb_hsw: .byte 197,124,40,192 // vmovaps %ymm0,%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,194 // vmovaps %ymm2,%ymm0 .byte 197,124,41,194 // vmovaps %ymm8,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_hsw .globl _sk_invert_hsw FUNCTION(_sk_invert_hsw) _sk_invert_hsw: .byte 196,98,125,24,5,109,84,0,0 // vbroadcastss 0x546d(%rip),%ymm8 # 68ec <_sk_clut_4D_hsw+0x962> .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_move_src_dst_hsw .globl _sk_move_src_dst_hsw FUNCTION(_sk_move_src_dst_hsw) _sk_move_src_dst_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,224 // vmovaps %ymm0,%ymm4 .byte 197,252,40,233 // vmovaps %ymm1,%ymm5 .byte 197,252,40,242 // vmovaps %ymm2,%ymm6 .byte 197,252,40,251 // vmovaps %ymm3,%ymm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_hsw .globl _sk_move_dst_src_hsw FUNCTION(_sk_move_dst_src_hsw) _sk_move_dst_src_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,196 // vmovaps %ymm4,%ymm0 .byte 197,252,40,205 // vmovaps %ymm5,%ymm1 .byte 197,252,40,214 // vmovaps %ymm6,%ymm2 .byte 197,252,40,223 // vmovaps %ymm7,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_hsw .globl _sk_premul_hsw FUNCTION(_sk_premul_hsw) _sk_premul_hsw: .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_dst_hsw .globl _sk_premul_dst_hsw FUNCTION(_sk_premul_dst_hsw) _sk_premul_dst_hsw: .byte 197,220,89,231 // vmulps %ymm7,%ymm4,%ymm4 .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5 .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_unpremul_hsw .globl _sk_unpremul_hsw FUNCTION(_sk_unpremul_hsw) _sk_unpremul_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9 .byte 196,98,125,24,21,1,84,0,0 // vbroadcastss 0x5401(%rip),%ymm10 # 68f0 <_sk_clut_4D_hsw+0x966> .byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10 .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_hsw .globl _sk_from_srgb_hsw FUNCTION(_sk_from_srgb_hsw) _sk_from_srgb_hsw: .byte 196,98,125,24,5,226,83,0,0 // vbroadcastss 0x53e2(%rip),%ymm8 # 68f4 <_sk_clut_4D_hsw+0x96a> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10 .byte 196,98,125,24,29,212,83,0,0 // vbroadcastss 0x53d4(%rip),%ymm11 # 68f8 <_sk_clut_4D_hsw+0x96e> .byte 196,98,125,24,37,207,83,0,0 // vbroadcastss 0x53cf(%rip),%ymm12 # 68fc <_sk_clut_4D_hsw+0x972> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13 .byte 196,98,125,24,53,192,83,0,0 // vbroadcastss 0x53c0(%rip),%ymm14 # 6900 <_sk_clut_4D_hsw+0x976> .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13 .byte 196,98,125,24,21,182,83,0,0 // vbroadcastss 0x53b6(%rip),%ymm10 # 6904 <_sk_clut_4D_hsw+0x97a> .byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0 .byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0 .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9 .byte 197,116,89,233 // vmulps %ymm1,%ymm1,%ymm13 .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15 .byte 196,66,117,168,251 // vfmadd213ps %ymm11,%ymm1,%ymm15 .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15 .byte 196,193,116,194,202,1 // vcmpltps %ymm10,%ymm1,%ymm1 .byte 196,195,5,74,201,16 // vblendvps %ymm1,%ymm9,%ymm15,%ymm1 .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 .byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9 .byte 196,66,109,168,227 // vfmadd213ps %ymm11,%ymm2,%ymm12 .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12 .byte 196,193,108,194,210,1 // vcmpltps %ymm10,%ymm2,%ymm2 .byte 196,195,29,74,208,32 // vblendvps %ymm2,%ymm8,%ymm12,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_dst_hsw .globl _sk_from_srgb_dst_hsw FUNCTION(_sk_from_srgb_dst_hsw) _sk_from_srgb_dst_hsw: .byte 196,98,125,24,5,94,83,0,0 // vbroadcastss 0x535e(%rip),%ymm8 # 6908 <_sk_clut_4D_hsw+0x97e> .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9 .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10 .byte 196,98,125,24,29,80,83,0,0 // vbroadcastss 0x5350(%rip),%ymm11 # 690c <_sk_clut_4D_hsw+0x982> .byte 196,98,125,24,37,75,83,0,0 // vbroadcastss 0x534b(%rip),%ymm12 # 6910 <_sk_clut_4D_hsw+0x986> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13 .byte 196,98,125,24,53,60,83,0,0 // vbroadcastss 0x533c(%rip),%ymm14 # 6914 <_sk_clut_4D_hsw+0x98a> .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13 .byte 196,98,125,24,21,50,83,0,0 // vbroadcastss 0x5332(%rip),%ymm10 # 6918 <_sk_clut_4D_hsw+0x98e> .byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4 .byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4 .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9 .byte 197,84,89,237 // vmulps %ymm5,%ymm5,%ymm13 .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15 .byte 196,66,85,168,251 // vfmadd213ps %ymm11,%ymm5,%ymm15 .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15 .byte 196,193,84,194,234,1 // vcmpltps %ymm10,%ymm5,%ymm5 .byte 196,195,5,74,233,80 // vblendvps %ymm5,%ymm9,%ymm15,%ymm5 .byte 196,65,76,89,192 // vmulps %ymm8,%ymm6,%ymm8 .byte 197,76,89,206 // vmulps %ymm6,%ymm6,%ymm9 .byte 196,66,77,168,227 // vfmadd213ps %ymm11,%ymm6,%ymm12 .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12 .byte 196,193,76,194,242,1 // vcmpltps %ymm10,%ymm6,%ymm6 .byte 196,195,29,74,240,96 // vblendvps %ymm6,%ymm8,%ymm12,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_to_srgb_hsw .globl _sk_to_srgb_hsw FUNCTION(_sk_to_srgb_hsw) _sk_to_srgb_hsw: .byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9 .byte 196,98,125,24,5,214,82,0,0 // vbroadcastss 0x52d6(%rip),%ymm8 # 691c <_sk_clut_4D_hsw+0x992> .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 .byte 196,98,125,24,29,204,82,0,0 // vbroadcastss 0x52cc(%rip),%ymm11 # 6920 <_sk_clut_4D_hsw+0x996> .byte 196,98,125,24,37,199,82,0,0 // vbroadcastss 0x52c7(%rip),%ymm12 # 6924 <_sk_clut_4D_hsw+0x99a> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13 .byte 196,98,125,24,53,184,82,0,0 // vbroadcastss 0x52b8(%rip),%ymm14 # 6928 <_sk_clut_4D_hsw+0x99e> .byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13 .byte 196,98,125,24,61,174,82,0,0 // vbroadcastss 0x52ae(%rip),%ymm15 # 692c <_sk_clut_4D_hsw+0x9a2> .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9 .byte 196,98,125,24,45,154,82,0,0 // vbroadcastss 0x529a(%rip),%ymm13 # 6930 <_sk_clut_4D_hsw+0x9a6> .byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9 .byte 196,65,124,40,212 // vmovaps %ymm12,%ymm10 .byte 196,66,53,168,211 // vfmadd213ps %ymm11,%ymm9,%ymm10 .byte 196,66,53,168,214 // vfmadd213ps %ymm14,%ymm9,%ymm10 .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,193,116,194,205,1 // vcmpltps %ymm13,%ymm1,%ymm1 .byte 196,195,53,74,202,16 // vblendvps %ymm1,%ymm10,%ymm9,%ymm1 .byte 197,124,82,202 // vrsqrtps %ymm2,%ymm9 .byte 196,66,53,168,227 // vfmadd213ps %ymm11,%ymm9,%ymm12 .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12 .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9 .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 .byte 196,193,108,194,213,1 // vcmpltps %ymm13,%ymm2,%ymm2 .byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_rgb_to_hsl_hsw .globl _sk_rgb_to_hsl_hsw FUNCTION(_sk_rgb_to_hsl_hsw) _sk_rgb_to_hsl_hsw: .byte 197,124,95,193 // vmaxps %ymm1,%ymm0,%ymm8 .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8 .byte 197,124,93,201 // vminps %ymm1,%ymm0,%ymm9 .byte 197,52,93,202 // vminps %ymm2,%ymm9,%ymm9 .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10 .byte 196,98,125,24,29,15,82,0,0 // vbroadcastss 0x520f(%rip),%ymm11 # 6934 <_sk_clut_4D_hsw+0x9aa> .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12 .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13 .byte 196,98,125,24,53,252,81,0,0 // vbroadcastss 0x51fc(%rip),%ymm14 # 6938 <_sk_clut_4D_hsw+0x9ae> .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15 .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13 .byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12 .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2 .byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13 .byte 196,98,125,24,53,227,81,0,0 // vbroadcastss 0x51e3(%rip),%ymm14 # 6940 <_sk_clut_4D_hsw+0x9b6> .byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13 .byte 196,98,125,24,53,209,81,0,0 // vbroadcastss 0x51d1(%rip),%ymm14 # 693c <_sk_clut_4D_hsw+0x9b2> .byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2 .byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1 .byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1 .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0 .byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0 .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1 .byte 196,98,125,24,29,180,81,0,0 // vbroadcastss 0x51b4(%rip),%ymm11 # 6948 <_sk_clut_4D_hsw+0x9be> .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2 .byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11 .byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12 .byte 196,65,28,92,225 // vsubps %ymm9,%ymm12,%ymm12 .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1 .byte 196,65,60,194,193,0 // vcmpeqps %ymm9,%ymm8,%ymm8 .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1 .byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0 .byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1 .byte 196,98,125,24,5,119,81,0,0 // vbroadcastss 0x5177(%rip),%ymm8 # 6944 <_sk_clut_4D_hsw+0x9ba> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hsl_to_rgb_hsw .globl _sk_hsl_to_rgb_hsw FUNCTION(_sk_hsl_to_rgb_hsw) _sk_hsl_to_rgb_hsw: .byte 72,131,236,56 // sub $0x38,%rsp .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp) .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp) .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp) .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp) .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp) .byte 197,252,40,233 // vmovaps %ymm1,%ymm5 .byte 197,252,40,224 // vmovaps %ymm0,%ymm4 .byte 196,98,125,24,5,68,81,0,0 // vbroadcastss 0x5144(%rip),%ymm8 # 694c <_sk_clut_4D_hsw+0x9c2> .byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9 .byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10 .byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11 .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9 .byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10 .byte 196,98,125,24,13,39,81,0,0 // vbroadcastss 0x5127(%rip),%ymm9 # 6950 <_sk_clut_4D_hsw+0x9c6> .byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9 .byte 196,98,125,24,29,29,81,0,0 // vbroadcastss 0x511d(%rip),%ymm11 # 6954 <_sk_clut_4D_hsw+0x9ca> .byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15 .byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11 .byte 196,98,125,24,45,7,81,0,0 // vbroadcastss 0x5107(%rip),%ymm13 # 695c <_sk_clut_4D_hsw+0x9d2> .byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0 .byte 196,98,125,24,53,253,80,0,0 // vbroadcastss 0x50fd(%rip),%ymm14 # 6960 <_sk_clut_4D_hsw+0x9d6> .byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12 .byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12 .byte 196,226,125,24,29,227,80,0,0 // vbroadcastss 0x50e3(%rip),%ymm3 # 6958 <_sk_clut_4D_hsw+0x9ce> .byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7 .byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7 .byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12 .byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7 .byte 196,98,125,24,37,206,80,0,0 // vbroadcastss 0x50ce(%rip),%ymm12 # 6964 <_sk_clut_4D_hsw+0x9da> .byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15 .byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0 .byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15 .byte 196,227,125,8,196,1 // vroundps $0x1,%ymm4,%ymm0 .byte 197,220,92,192 // vsubps %ymm0,%ymm4,%ymm0 .byte 196,193,124,89,253 // vmulps %ymm13,%ymm0,%ymm7 .byte 197,140,92,207 // vsubps %ymm7,%ymm14,%ymm1 .byte 196,194,37,168,201 // vfmadd213ps %ymm9,%ymm11,%ymm1 .byte 197,228,194,240,2 // vcmpleps %ymm0,%ymm3,%ymm6 .byte 196,195,117,74,201,96 // vblendvps %ymm6,%ymm9,%ymm1,%ymm1 .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6 .byte 196,227,45,74,201,96 // vblendvps %ymm6,%ymm1,%ymm10,%ymm1 .byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0 .byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7 .byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1 .byte 196,226,125,24,5,122,80,0,0 // vbroadcastss 0x507a(%rip),%ymm0 # 6968 <_sk_clut_4D_hsw+0x9de> .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0 .byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3 .byte 196,193,124,89,229 // vmulps %ymm13,%ymm0,%ymm4 .byte 197,140,92,244 // vsubps %ymm4,%ymm14,%ymm6 .byte 196,194,37,168,241 // vfmadd213ps %ymm9,%ymm11,%ymm6 .byte 196,195,77,74,217,48 // vblendvps %ymm3,%ymm9,%ymm6,%ymm3 .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6 .byte 196,227,45,74,219,96 // vblendvps %ymm6,%ymm3,%ymm10,%ymm3 .byte 196,98,37,184,204 // vfmadd231ps %ymm4,%ymm11,%ymm9 .byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0 .byte 196,227,53,74,219,0 // vblendvps %ymm0,%ymm3,%ymm9,%ymm3 .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,212,194,224,0 // vcmpeqps %ymm0,%ymm5,%ymm4 .byte 196,227,5,74,194,64 // vblendvps %ymm4,%ymm2,%ymm15,%ymm0 .byte 196,227,117,74,202,64 // vblendvps %ymm4,%ymm2,%ymm1,%ymm1 .byte 196,227,101,74,210,64 // vblendvps %ymm4,%ymm2,%ymm3,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,92,36,128 // vmovups -0x80(%rsp),%ymm3 .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4 .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5 .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6 .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7 .byte 72,131,196,56 // add $0x38,%rsp .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_1_float_hsw .globl _sk_scale_1_float_hsw FUNCTION(_sk_scale_1_float_hsw) _sk_scale_1_float_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_hsw .globl _sk_scale_u8_hsw FUNCTION(_sk_scale_u8_hsw) _sk_scale_u8_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,59 // jne 19df <_sk_scale_u8_hsw+0x54> .byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8 .byte 197,57,219,5,142,86,0,0 // vpand 0x568e(%rip),%xmm8,%xmm8 # 7040 <_sk_clut_4D_hsw+0x10b6> .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,13,167,79,0,0 // vbroadcastss 0x4fa7(%rip),%ymm9 # 696c <_sk_clut_4D_hsw+0x9e2> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,182 // ja 19aa <_sk_scale_u8_hsw+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 1a78 <_sk_scale_u8_hsw+0xed> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 235,151 // jmp 19aa <_sk_scale_u8_hsw+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 .byte 233,110,255,255,255 // jmpq 19aa <_sk_scale_u8_hsw+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8 .byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 .byte 233,50,255,255,255 // jmpq 19aa <_sk_scale_u8_hsw+0x1f> .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) .byte 255,171,255,255,255,155 // ljmp *-0x64000001(%rbx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,212 // callq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_lerp_1_float_hsw .globl _sk_lerp_1_float_hsw FUNCTION(_sk_lerp_1_float_hsw) _sk_lerp_1_float_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2 .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3 .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_hsw .globl _sk_lerp_u8_hsw FUNCTION(_sk_lerp_u8_hsw) _sk_lerp_u8_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,79 // jne 1b2b <_sk_lerp_u8_hsw+0x68> .byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8 .byte 197,57,219,5,102,85,0,0 // vpand 0x5566(%rip),%xmm8,%xmm8 # 7050 <_sk_clut_4D_hsw+0x10c6> .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,13,115,78,0,0 // vbroadcastss 0x4e73(%rip),%ymm9 # 6970 <_sk_clut_4D_hsw+0x9e6> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2 .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3 .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,162 // ja 1ae2 <_sk_lerp_u8_hsw+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 1bc4 <_sk_lerp_u8_hsw+0x101> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 235,131 // jmp 1ae2 <_sk_lerp_u8_hsw+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 .byte 233,90,255,255,255 // jmpq 1ae2 <_sk_lerp_u8_hsw+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8 .byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 .byte 233,30,255,255,255 // jmpq 1ae2 <_sk_lerp_u8_hsw+0x1f> .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) .byte 255,171,255,255,255,155 // ljmp *-0x64000001(%rbx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,212 // callq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_lerp_565_hsw .globl _sk_lerp_565_hsw FUNCTION(_sk_lerp_565_hsw) _sk_lerp_565_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,170,0,0,0 // jne 1caa <_sk_lerp_565_hsw+0xca> .byte 196,65,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm8 .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,98,125,88,13,96,77,0,0 // vpbroadcastd 0x4d60(%rip),%ymm9 # 6974 <_sk_clut_4D_hsw+0x9ea> .byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9 .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 .byte 196,98,125,24,21,81,77,0,0 // vbroadcastss 0x4d51(%rip),%ymm10 # 6978 <_sk_clut_4D_hsw+0x9ee> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 196,98,125,88,21,71,77,0,0 // vpbroadcastd 0x4d47(%rip),%ymm10 # 697c <_sk_clut_4D_hsw+0x9f2> .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10 .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 .byte 196,98,125,24,29,56,77,0,0 // vbroadcastss 0x4d38(%rip),%ymm11 # 6980 <_sk_clut_4D_hsw+0x9f6> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 196,98,125,88,29,46,77,0,0 // vpbroadcastd 0x4d2e(%rip),%ymm11 # 6984 <_sk_clut_4D_hsw+0x9fa> .byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,29,31,77,0,0 // vbroadcastss 0x4d1f(%rip),%ymm11 # 6988 <_sk_clut_4D_hsw+0x9fe> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,226,53,168,196 // vfmadd213ps %ymm4,%ymm9,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,226,45,168,205 // vfmadd213ps %ymm5,%ymm10,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2 .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3 .byte 196,98,101,168,207 // vfmadd213ps %ymm7,%ymm3,%ymm9 .byte 196,98,101,168,215 // vfmadd213ps %ymm7,%ymm3,%ymm10 .byte 196,98,101,168,199 // vfmadd213ps %ymm7,%ymm3,%ymm8 .byte 196,193,44,95,216 // vmaxps %ymm8,%ymm10,%ymm3 .byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,67,255,255,255 // ja 1c06 <_sk_lerp_565_hsw+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,102,0,0,0 // lea 0x66(%rip),%r11 # 1d34 <_sk_lerp_565_hsw+0x154> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 233,33,255,255,255 // jmpq 1c06 <_sk_lerp_565_hsw+0x26> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 .byte 233,3,255,255,255 // jmpq 1c06 <_sk_lerp_565_hsw+0x26> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,57,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,57,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 .byte 233,213,254,255,255 // jmpq 1c06 <_sk_lerp_565_hsw+0x26> .byte 15,31,0 // nopl (%rax) .byte 163,255,255,255,190,255,255,255,177 // movabs %eax,0xb1ffffffbeffffff .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 236 // in (%dx),%al .byte 255 // (bad) .byte 255 // (bad) .byte 255,228 // jmpq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,207 // dec %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_tables_hsw .globl _sk_load_tables_hsw FUNCTION(_sk_load_tables_hsw) _sk_load_tables_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10 .byte 76,3,16 // add (%rax),%r10 .byte 77,133,192 // test %r8,%r8 .byte 117,105 // jne 1dce <_sk_load_tables_hsw+0x7e> .byte 196,193,124,16,26 // vmovups (%r10),%ymm3 .byte 197,228,84,13,46,80,0,0 // vandps 0x502e(%rip),%ymm3,%ymm1 # 6da0 <_sk_clut_4D_hsw+0xe16> .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 72,139,72,8 // mov 0x8(%rax),%rcx .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,4,137 // vgatherdps %ymm2,(%rcx,%ymm1,4),%ymm0 .byte 196,226,101,0,21,46,80,0,0 // vpshufb 0x502e(%rip),%ymm3,%ymm2 # 6dc0 <_sk_clut_4D_hsw+0xe36> .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,194,53,146,12,146 // vgatherdps %ymm9,(%r10,%ymm2,4),%ymm1 .byte 72,139,64,24 // mov 0x18(%rax),%rax .byte 196,98,101,0,13,54,80,0,0 // vpshufb 0x5036(%rip),%ymm3,%ymm9 # 6de0 <_sk_clut_4D_hsw+0xe56> .byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,98,125,24,5,202,75,0,0 // vbroadcastss 0x4bca(%rip),%ymm8 # 698c <_sk_clut_4D_hsw+0xa02> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,195,255,255,255,255 // mov $0xffffffffffffffff,%r11 .byte 73,211,235 // shr %cl,%r11 .byte 196,193,249,110,195 // vmovq %r11,%xmm0 .byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0 .byte 196,194,125,44,26 // vmaskmovps (%r10),%ymm0,%ymm3 .byte 233,115,255,255,255 // jmpq 1d6a <_sk_load_tables_hsw+0x1a> HIDDEN _sk_load_tables_u16_be_hsw .globl _sk_load_tables_u16_be_hsw FUNCTION(_sk_load_tables_u16_be_hsw) _sk_load_tables_u16_be_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,201,0,0,0 // jne 1ed6 <_sk_load_tables_u16_be_hsw+0xdf> .byte 196,1,121,16,4,81 // vmovupd (%r9,%r10,2),%xmm8 .byte 196,129,121,16,84,81,16 // vmovupd 0x10(%r9,%r10,2),%xmm2 .byte 196,129,121,16,92,81,32 // vmovupd 0x20(%r9,%r10,2),%xmm3 .byte 196,1,122,111,76,81,48 // vmovdqu 0x30(%r9,%r10,2),%xmm9 .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0 .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2 .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1 .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9 .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0 .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3 .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1 .byte 197,185,109,208 // vpunpckhqdq %xmm0,%xmm8,%xmm2 .byte 197,49,108,195 // vpunpcklqdq %xmm3,%xmm9,%xmm8 .byte 197,121,111,21,2,82,0,0 // vmovdqa 0x5202(%rip),%xmm10 # 7060 <_sk_clut_4D_hsw+0x10d6> .byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0 .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1 .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 .byte 196,194,29,146,4,137 // vgatherdps %ymm12,(%r9,%ymm1,4),%ymm0 .byte 196,193,105,219,202 // vpand %xmm10,%xmm2,%xmm1 .byte 196,226,125,51,209 // vpmovzxwd %xmm1,%ymm2 .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 .byte 196,194,29,146,12,146 // vgatherdps %ymm12,(%r10,%ymm2,4),%ymm1 .byte 72,139,64,24 // mov 0x18(%rax),%rax .byte 196,193,57,219,210 // vpand %xmm10,%xmm8,%xmm2 .byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8 .byte 196,162,37,146,20,128 // vgatherdps %ymm11,(%rax,%ymm8,4),%ymm2 .byte 197,177,109,219 // vpunpckhqdq %xmm3,%xmm9,%xmm3 .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8 .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3 .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3 .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,98,125,24,5,195,74,0,0 // vbroadcastss 0x4ac3(%rip),%ymm8 # 6990 <_sk_clut_4D_hsw+0xa06> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,1,123,16,4,81 // vmovsd (%r9,%r10,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 1f3c <_sk_load_tables_u16_be_hsw+0x145> .byte 196,1,57,22,68,81,8 // vmovhpd 0x8(%r9,%r10,2),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 1f3c <_sk_load_tables_u16_be_hsw+0x145> .byte 196,129,123,16,84,81,16 // vmovsd 0x10(%r9,%r10,2),%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 1f49 <_sk_load_tables_u16_be_hsw+0x152> .byte 196,129,105,22,84,81,24 // vmovhpd 0x18(%r9,%r10,2),%xmm2,%xmm2 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 1f49 <_sk_load_tables_u16_be_hsw+0x152> .byte 196,129,123,16,92,81,32 // vmovsd 0x20(%r9,%r10,2),%xmm3 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,9,255,255,255 // je 1e28 <_sk_load_tables_u16_be_hsw+0x31> .byte 196,129,97,22,92,81,40 // vmovhpd 0x28(%r9,%r10,2),%xmm3,%xmm3 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,248,254,255,255 // jb 1e28 <_sk_load_tables_u16_be_hsw+0x31> .byte 196,1,122,126,76,81,48 // vmovq 0x30(%r9,%r10,2),%xmm9 .byte 233,236,254,255,255 // jmpq 1e28 <_sk_load_tables_u16_be_hsw+0x31> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 .byte 233,223,254,255,255 // jmpq 1e28 <_sk_load_tables_u16_be_hsw+0x31> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 233,214,254,255,255 // jmpq 1e28 <_sk_load_tables_u16_be_hsw+0x31> HIDDEN _sk_load_tables_rgb_u16_be_hsw .globl _sk_load_tables_rgb_u16_be_hsw FUNCTION(_sk_load_tables_rgb_u16_be_hsw) _sk_load_tables_rgb_u16_be_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,193,0,0,0 // jne 2025 <_sk_load_tables_rgb_u16_be_hsw+0xd3> .byte 196,129,122,111,4,81 // vmovdqu (%r9,%r10,2),%xmm0 .byte 196,129,122,111,84,81,12 // vmovdqu 0xc(%r9,%r10,2),%xmm2 .byte 196,129,122,111,76,81,24 // vmovdqu 0x18(%r9,%r10,2),%xmm1 .byte 196,129,122,111,92,81,32 // vmovdqu 0x20(%r9,%r10,2),%xmm3 .byte 197,225,115,219,4 // vpsrldq $0x4,%xmm3,%xmm3 .byte 197,185,115,216,6 // vpsrldq $0x6,%xmm0,%xmm8 .byte 197,177,115,218,6 // vpsrldq $0x6,%xmm2,%xmm9 .byte 197,161,115,217,6 // vpsrldq $0x6,%xmm1,%xmm11 .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10 .byte 197,249,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm0 .byte 196,193,57,97,209 // vpunpcklwd %xmm9,%xmm8,%xmm2 .byte 197,241,97,203 // vpunpcklwd %xmm3,%xmm1,%xmm1 .byte 196,193,33,97,218 // vpunpcklwd %xmm10,%xmm11,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,249,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm0 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,241,105,203 // vpunpckhwd %xmm3,%xmm1,%xmm1 .byte 197,185,108,218 // vpunpcklqdq %xmm2,%xmm8,%xmm3 .byte 197,185,109,210 // vpunpckhqdq %xmm2,%xmm8,%xmm2 .byte 197,121,108,193 // vpunpcklqdq %xmm1,%xmm0,%xmm8 .byte 197,121,111,13,162,80,0,0 // vmovdqa 0x50a2(%rip),%xmm9 # 7070 <_sk_clut_4D_hsw+0x10e6> .byte 196,193,97,219,193 // vpand %xmm9,%xmm3,%xmm0 .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10 .byte 196,194,45,146,4,137 // vgatherdps %ymm10,(%r9,%ymm1,4),%ymm0 .byte 196,193,105,219,201 // vpand %xmm9,%xmm2,%xmm1 .byte 196,226,125,51,209 // vpmovzxwd %xmm1,%ymm2 .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10 .byte 196,194,45,146,12,146 // vgatherdps %ymm10,(%r10,%ymm2,4),%ymm1 .byte 72,139,64,24 // mov 0x18(%rax),%rax .byte 196,193,57,219,209 // vpand %xmm9,%xmm8,%xmm2 .byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8 .byte 196,162,101,146,20,128 // vgatherdps %ymm3,(%rax,%ymm8,4),%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,113,73,0,0 // vbroadcastss 0x4971(%rip),%ymm3 # 6994 <_sk_clut_4D_hsw+0xa0a> .byte 255,224 // jmpq *%rax .byte 196,129,121,110,4,81 // vmovd (%r9,%r10,2),%xmm0 .byte 196,129,121,196,68,81,4,2 // vpinsrw $0x2,0x4(%r9,%r10,2),%xmm0,%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,5 // jne 203e <_sk_load_tables_rgb_u16_be_hsw+0xec> .byte 233,90,255,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> .byte 196,129,121,110,76,81,6 // vmovd 0x6(%r9,%r10,2),%xmm1 .byte 196,1,113,196,68,81,10,2 // vpinsrw $0x2,0xa(%r9,%r10,2),%xmm1,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,26 // jb 206d <_sk_load_tables_rgb_u16_be_hsw+0x11b> .byte 196,129,121,110,76,81,12 // vmovd 0xc(%r9,%r10,2),%xmm1 .byte 196,129,113,196,84,81,16,2 // vpinsrw $0x2,0x10(%r9,%r10,2),%xmm1,%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 117,10 // jne 2072 <_sk_load_tables_rgb_u16_be_hsw+0x120> .byte 233,43,255,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> .byte 233,38,255,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> .byte 196,129,121,110,76,81,18 // vmovd 0x12(%r9,%r10,2),%xmm1 .byte 196,1,113,196,76,81,22,2 // vpinsrw $0x2,0x16(%r9,%r10,2),%xmm1,%xmm9 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,26 // jb 20a1 <_sk_load_tables_rgb_u16_be_hsw+0x14f> .byte 196,129,121,110,76,81,24 // vmovd 0x18(%r9,%r10,2),%xmm1 .byte 196,129,113,196,76,81,28,2 // vpinsrw $0x2,0x1c(%r9,%r10,2),%xmm1,%xmm1 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 117,10 // jne 20a6 <_sk_load_tables_rgb_u16_be_hsw+0x154> .byte 233,247,254,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> .byte 233,242,254,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> .byte 196,129,121,110,92,81,30 // vmovd 0x1e(%r9,%r10,2),%xmm3 .byte 196,1,97,196,92,81,34,2 // vpinsrw $0x2,0x22(%r9,%r10,2),%xmm3,%xmm11 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,20 // jb 20cf <_sk_load_tables_rgb_u16_be_hsw+0x17d> .byte 196,129,121,110,92,81,36 // vmovd 0x24(%r9,%r10,2),%xmm3 .byte 196,129,97,196,92,81,40,2 // vpinsrw $0x2,0x28(%r9,%r10,2),%xmm3,%xmm3 .byte 233,201,254,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> .byte 233,196,254,255,255 // jmpq 1f98 <_sk_load_tables_rgb_u16_be_hsw+0x46> HIDDEN _sk_byte_tables_hsw .globl _sk_byte_tables_hsw FUNCTION(_sk_byte_tables_hsw) _sk_byte_tables_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,185,72,0,0 // vbroadcastss 0x48b9(%rip),%ymm8 # 6998 <_sk_clut_4D_hsw+0xa0e> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 .byte 196,65,249,126,201 // vmovq %xmm9,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 76,139,24 // mov (%rax),%r11 .byte 196,131,121,32,4,19,0 // vpinsrb $0x0,(%r11,%r10,1),%xmm0,%xmm0 .byte 196,67,249,22,202,1 // vpextrq $0x1,%xmm9,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,121,32,20,11,1 // vpinsrb $0x1,(%r11,%r9,1),%xmm0,%xmm10 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,67,41,32,201,2 // vpinsrb $0x2,%r9d,%xmm10,%xmm9 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,49,32,202,3 // vpinsrb $0x3,%r10d,%xmm9,%xmm9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,49,32,202,4 // vpinsrb $0x4,%r10d,%xmm9,%xmm9 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,195,49,32,193,5 // vpinsrb $0x5,%r9d,%xmm9,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,121,32,202,7 // vpinsrb $0x7,%r10d,%xmm0,%xmm9 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,4,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,121,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm0,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,2 // vpinsrb $0x2,%r10d,%xmm0,%xmm0 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,195,121,32,195,3 // vpinsrb $0x3,%r11d,%xmm0,%xmm0 .byte 69,137,211 // mov %r10d,%r11d .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,195,121,32,195,4 // vpinsrb $0x4,%r11d,%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,5 // vpinsrb $0x5,%r10d,%xmm0,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,6 // vpinsrb $0x6,%r10d,%xmm0,%xmm0 .byte 71,15,182,12,25 // movzbl (%r9,%r11,1),%r9d .byte 196,195,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm1 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 196,193,108,89,192 // vmulps %ymm8,%ymm2,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,20,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm2 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,20,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm2 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,105,32,210,2 // vpinsrb $0x2,%r10d,%xmm2,%xmm2 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,195,105,32,211,3 // vpinsrb $0x3,%r11d,%xmm2,%xmm2 .byte 69,137,211 // mov %r10d,%r11d .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,195,105,32,211,4 // vpinsrb $0x4,%r11d,%xmm2,%xmm2 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,105,32,194,5 // vpinsrb $0x5,%r10d,%xmm2,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,6 // vpinsrb $0x6,%r10d,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 71,15,182,12,25 // movzbl (%r9,%r11,1),%r9d .byte 196,195,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm2 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 196,193,100,89,192 // vmulps %ymm8,%ymm3,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 68,137,200 // mov %r9d,%eax .byte 196,195,121,32,28,2,0 // vpinsrb $0x0,(%r10,%rax,1),%xmm0,%xmm3 .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,97,32,28,10,1 // vpinsrb $0x1,(%r10,%r9,1),%xmm3,%xmm3 .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,195,97,32,217,2 // vpinsrb $0x2,%r9d,%xmm3,%xmm3 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3 .byte 68,137,200 // mov %r9d,%eax .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,233,32 // shr $0x20,%r9 .byte 67,15,182,4,10 // movzbl (%r10,%r9,1),%eax .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,26 // movzbl (%r10,%r11,1),%eax .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,94,70,0,0 // vbroadcastss 0x465e(%rip),%ymm8 # 699c <_sk_clut_4D_hsw+0xa12> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3 .byte 196,226,125,49,219 // vpmovzxbd %xmm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_byte_tables_rgb_hsw .globl _sk_byte_tables_rgb_hsw FUNCTION(_sk_byte_tables_rgb_hsw) _sk_byte_tables_rgb_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,24 // mov 0x18(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 196,65,121,110,193 // vmovd %r9d,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 .byte 196,65,249,126,201 // vmovq %xmm9,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 76,139,24 // mov (%rax),%r11 .byte 196,131,121,32,4,19,0 // vpinsrb $0x0,(%r11,%r10,1),%xmm0,%xmm0 .byte 196,67,249,22,202,1 // vpextrq $0x1,%xmm9,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,121,32,20,11,1 // vpinsrb $0x1,(%r11,%r9,1),%xmm0,%xmm10 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,67,41,32,201,2 // vpinsrb $0x2,%r9d,%xmm10,%xmm9 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,49,32,202,3 // vpinsrb $0x3,%r10d,%xmm9,%xmm9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,49,32,202,4 // vpinsrb $0x4,%r10d,%xmm9,%xmm9 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,195,49,32,193,5 // vpinsrb $0x5,%r9d,%xmm9,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,121,32,202,7 // vpinsrb $0x7,%r10d,%xmm0,%xmm9 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,4,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,121,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm0,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,2 // vpinsrb $0x2,%r10d,%xmm0,%xmm0 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,195,121,32,195,3 // vpinsrb $0x3,%r11d,%xmm0,%xmm0 .byte 69,137,211 // mov %r10d,%r11d .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,195,121,32,195,4 // vpinsrb $0x4,%r11d,%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,5 // vpinsrb $0x5,%r10d,%xmm0,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,6 // vpinsrb $0x6,%r10d,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 71,15,182,12,25 // movzbl (%r9,%r11,1),%r9d .byte 196,195,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm1 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 68,137,200 // mov %r9d,%eax .byte 196,195,121,32,20,2,0 // vpinsrb $0x0,(%r10,%rax,1),%xmm0,%xmm2 .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,105,32,20,10,1 // vpinsrb $0x1,(%r10,%r9,1),%xmm2,%xmm2 .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,195,105,32,209,2 // vpinsrb $0x2,%r9d,%xmm2,%xmm2 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2 .byte 68,137,200 // mov %r9d,%eax .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,233,32 // shr $0x20,%r9 .byte 67,15,182,4,10 // movzbl (%r10,%r9,1),%eax .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,26 // movzbl (%r10,%r11,1),%eax .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,74,68,0,0 // vbroadcastss 0x444a(%rip),%ymm8 # 69a0 <_sk_clut_4D_hsw+0xa16> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2 .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_r_hsw .globl _sk_table_r_hsw FUNCTION(_sk_table_r_hsw) _sk_table_r_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,130,53,146,4,129 // vgatherdps %ymm9,(%r9,%ymm8,4),%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_g_hsw .globl _sk_table_g_hsw FUNCTION(_sk_table_g_hsw) _sk_table_g_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,130,53,146,12,129 // vgatherdps %ymm9,(%r9,%ymm8,4),%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_b_hsw .globl _sk_table_b_hsw FUNCTION(_sk_table_b_hsw) _sk_table_b_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,130,53,146,20,129 // vgatherdps %ymm9,(%r9,%ymm8,4),%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_a_hsw .globl _sk_table_a_hsw FUNCTION(_sk_table_a_hsw) _sk_table_a_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,130,53,146,28,129 // vgatherdps %ymm9,(%r9,%ymm8,4),%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_r_hsw .globl _sk_parametric_r_hsw FUNCTION(_sk_parametric_r_hsw) _sk_parametric_r_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,124,194,192,2 // vcmpleps %ymm8,%ymm0,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,66,125,168,202 // vfmadd213ps %ymm10,%ymm0,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10 .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0 .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11 .byte 196,98,125,24,37,36,67,0,0 // vbroadcastss 0x4324(%rip),%ymm12 # 69a4 <_sk_clut_4D_hsw+0xa1a> .byte 196,98,125,24,45,31,67,0,0 // vbroadcastss 0x431f(%rip),%ymm13 # 69a8 <_sk_clut_4D_hsw+0xa1e> .byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,21,67,0,0 // vbroadcastss 0x4315(%rip),%ymm13 # 69ac <_sk_clut_4D_hsw+0xa22> .byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,11,67,0,0 // vbroadcastss 0x430b(%rip),%ymm13 # 69b0 <_sk_clut_4D_hsw+0xa26> .byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13 .byte 196,98,125,24,29,1,67,0,0 // vbroadcastss 0x4301(%rip),%ymm11 # 69b4 <_sk_clut_4D_hsw+0xa2a> .byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11 .byte 196,98,125,24,37,247,66,0,0 // vbroadcastss 0x42f7(%rip),%ymm12 # 69b8 <_sk_clut_4D_hsw+0xa2e> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,37,237,66,0,0 // vbroadcastss 0x42ed(%rip),%ymm12 # 69bc <_sk_clut_4D_hsw+0xa32> .byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10 .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 .byte 196,98,125,24,29,206,66,0,0 // vbroadcastss 0x42ce(%rip),%ymm11 # 69c0 <_sk_clut_4D_hsw+0xa36> .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,98,125,24,29,196,66,0,0 // vbroadcastss 0x42c4(%rip),%ymm11 # 69c4 <_sk_clut_4D_hsw+0xa3a> .byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11 .byte 196,226,125,24,5,186,66,0,0 // vbroadcastss 0x42ba(%rip),%ymm0 # 69c8 <_sk_clut_4D_hsw+0xa3e> .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 196,98,125,24,21,176,66,0,0 // vbroadcastss 0x42b0(%rip),%ymm10 # 69cc <_sk_clut_4D_hsw+0xa42> .byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0 .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0 .byte 196,98,125,24,21,163,66,0,0 // vbroadcastss 0x42a3(%rip),%ymm10 # 69d0 <_sk_clut_4D_hsw+0xa46> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 .byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,5,122,66,0,0 // vbroadcastss 0x427a(%rip),%ymm8 # 69d4 <_sk_clut_4D_hsw+0xa4a> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_g_hsw .globl _sk_parametric_g_hsw FUNCTION(_sk_parametric_g_hsw) _sk_parametric_g_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,116,194,192,2 // vcmpleps %ymm8,%ymm1,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,66,117,168,202 // vfmadd213ps %ymm10,%ymm1,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10 .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1 .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11 .byte 196,98,125,24,37,50,66,0,0 // vbroadcastss 0x4232(%rip),%ymm12 # 69d8 <_sk_clut_4D_hsw+0xa4e> .byte 196,98,125,24,45,45,66,0,0 // vbroadcastss 0x422d(%rip),%ymm13 # 69dc <_sk_clut_4D_hsw+0xa52> .byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,35,66,0,0 // vbroadcastss 0x4223(%rip),%ymm13 # 69e0 <_sk_clut_4D_hsw+0xa56> .byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,25,66,0,0 // vbroadcastss 0x4219(%rip),%ymm13 # 69e4 <_sk_clut_4D_hsw+0xa5a> .byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13 .byte 196,98,125,24,29,15,66,0,0 // vbroadcastss 0x420f(%rip),%ymm11 # 69e8 <_sk_clut_4D_hsw+0xa5e> .byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11 .byte 196,98,125,24,37,5,66,0,0 // vbroadcastss 0x4205(%rip),%ymm12 # 69ec <_sk_clut_4D_hsw+0xa62> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,37,251,65,0,0 // vbroadcastss 0x41fb(%rip),%ymm12 # 69f0 <_sk_clut_4D_hsw+0xa66> .byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10 .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10 .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10 .byte 196,98,125,24,29,220,65,0,0 // vbroadcastss 0x41dc(%rip),%ymm11 # 69f4 <_sk_clut_4D_hsw+0xa6a> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,29,210,65,0,0 // vbroadcastss 0x41d2(%rip),%ymm11 # 69f8 <_sk_clut_4D_hsw+0xa6e> .byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11 .byte 196,226,125,24,13,200,65,0,0 // vbroadcastss 0x41c8(%rip),%ymm1 # 69fc <_sk_clut_4D_hsw+0xa72> .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1 .byte 196,98,125,24,21,190,65,0,0 // vbroadcastss 0x41be(%rip),%ymm10 # 6a00 <_sk_clut_4D_hsw+0xa76> .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 196,98,125,24,21,177,65,0,0 // vbroadcastss 0x41b1(%rip),%ymm10 # 6a04 <_sk_clut_4D_hsw+0xa7a> .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,98,125,24,5,136,65,0,0 // vbroadcastss 0x4188(%rip),%ymm8 # 6a08 <_sk_clut_4D_hsw+0xa7e> .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_b_hsw .globl _sk_parametric_b_hsw FUNCTION(_sk_parametric_b_hsw) _sk_parametric_b_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,108,194,192,2 // vcmpleps %ymm8,%ymm2,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,66,109,168,202 // vfmadd213ps %ymm10,%ymm2,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10 .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2 .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11 .byte 196,98,125,24,37,64,65,0,0 // vbroadcastss 0x4140(%rip),%ymm12 # 6a0c <_sk_clut_4D_hsw+0xa82> .byte 196,98,125,24,45,59,65,0,0 // vbroadcastss 0x413b(%rip),%ymm13 # 6a10 <_sk_clut_4D_hsw+0xa86> .byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,49,65,0,0 // vbroadcastss 0x4131(%rip),%ymm13 # 6a14 <_sk_clut_4D_hsw+0xa8a> .byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,39,65,0,0 // vbroadcastss 0x4127(%rip),%ymm13 # 6a18 <_sk_clut_4D_hsw+0xa8e> .byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13 .byte 196,98,125,24,29,29,65,0,0 // vbroadcastss 0x411d(%rip),%ymm11 # 6a1c <_sk_clut_4D_hsw+0xa92> .byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11 .byte 196,98,125,24,37,19,65,0,0 // vbroadcastss 0x4113(%rip),%ymm12 # 6a20 <_sk_clut_4D_hsw+0xa96> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,37,9,65,0,0 // vbroadcastss 0x4109(%rip),%ymm12 # 6a24 <_sk_clut_4D_hsw+0xa9a> .byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10 .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 .byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10 .byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10 .byte 196,98,125,24,29,234,64,0,0 // vbroadcastss 0x40ea(%rip),%ymm11 # 6a28 <_sk_clut_4D_hsw+0xa9e> .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,98,125,24,29,224,64,0,0 // vbroadcastss 0x40e0(%rip),%ymm11 # 6a2c <_sk_clut_4D_hsw+0xaa2> .byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11 .byte 196,226,125,24,21,214,64,0,0 // vbroadcastss 0x40d6(%rip),%ymm2 # 6a30 <_sk_clut_4D_hsw+0xaa6> .byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2 .byte 196,98,125,24,21,204,64,0,0 // vbroadcastss 0x40cc(%rip),%ymm10 # 6a34 <_sk_clut_4D_hsw+0xaaa> .byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2 .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2 .byte 196,98,125,24,21,191,64,0,0 // vbroadcastss 0x40bf(%rip),%ymm10 # 6a38 <_sk_clut_4D_hsw+0xaae> .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 .byte 196,98,125,24,5,150,64,0,0 // vbroadcastss 0x4096(%rip),%ymm8 # 6a3c <_sk_clut_4D_hsw+0xab2> .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_a_hsw .globl _sk_parametric_a_hsw FUNCTION(_sk_parametric_a_hsw) _sk_parametric_a_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,100,194,192,2 // vcmpleps %ymm8,%ymm3,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,66,101,168,202 // vfmadd213ps %ymm10,%ymm3,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10 .byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3 .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11 .byte 196,98,125,24,37,78,64,0,0 // vbroadcastss 0x404e(%rip),%ymm12 # 6a40 <_sk_clut_4D_hsw+0xab6> .byte 196,98,125,24,45,73,64,0,0 // vbroadcastss 0x4049(%rip),%ymm13 # 6a44 <_sk_clut_4D_hsw+0xaba> .byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,63,64,0,0 // vbroadcastss 0x403f(%rip),%ymm13 # 6a48 <_sk_clut_4D_hsw+0xabe> .byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10 .byte 196,98,125,24,45,53,64,0,0 // vbroadcastss 0x4035(%rip),%ymm13 # 6a4c <_sk_clut_4D_hsw+0xac2> .byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13 .byte 196,98,125,24,29,43,64,0,0 // vbroadcastss 0x402b(%rip),%ymm11 # 6a50 <_sk_clut_4D_hsw+0xac6> .byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11 .byte 196,98,125,24,37,33,64,0,0 // vbroadcastss 0x4021(%rip),%ymm12 # 6a54 <_sk_clut_4D_hsw+0xaca> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,37,23,64,0,0 // vbroadcastss 0x4017(%rip),%ymm12 # 6a58 <_sk_clut_4D_hsw+0xace> .byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10 .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 .byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10 .byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10 .byte 196,98,125,24,29,248,63,0,0 // vbroadcastss 0x3ff8(%rip),%ymm11 # 6a5c <_sk_clut_4D_hsw+0xad2> .byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3 .byte 196,98,125,24,29,238,63,0,0 // vbroadcastss 0x3fee(%rip),%ymm11 # 6a60 <_sk_clut_4D_hsw+0xad6> .byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11 .byte 196,226,125,24,29,228,63,0,0 // vbroadcastss 0x3fe4(%rip),%ymm3 # 6a64 <_sk_clut_4D_hsw+0xada> .byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3 .byte 196,98,125,24,21,218,63,0,0 // vbroadcastss 0x3fda(%rip),%ymm10 # 6a68 <_sk_clut_4D_hsw+0xade> .byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3 .byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3 .byte 196,98,125,24,21,205,63,0,0 // vbroadcastss 0x3fcd(%rip),%ymm10 # 6a6c <_sk_clut_4D_hsw+0xae2> .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 .byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3 .byte 196,98,125,24,5,164,63,0,0 // vbroadcastss 0x3fa4(%rip),%ymm8 # 6a70 <_sk_clut_4D_hsw+0xae6> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_gamma_hsw .globl _sk_gamma_hsw FUNCTION(_sk_gamma_hsw) _sk_gamma_hsw: .byte 72,131,236,56 // sub $0x38,%rsp .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp) .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp) .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp) .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp) .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp) .byte 197,252,40,250 // vmovaps %ymm2,%ymm7 .byte 197,252,40,241 // vmovaps %ymm1,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10 .byte 196,98,125,24,29,103,63,0,0 // vbroadcastss 0x3f67(%rip),%ymm11 # 6a74 <_sk_clut_4D_hsw+0xaea> .byte 196,226,125,24,45,98,63,0,0 // vbroadcastss 0x3f62(%rip),%ymm5 # 6a78 <_sk_clut_4D_hsw+0xaee> .byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9 .byte 196,226,125,24,37,89,63,0,0 // vbroadcastss 0x3f59(%rip),%ymm4 # 6a7c <_sk_clut_4D_hsw+0xaf2> .byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12 .byte 196,98,125,24,45,80,63,0,0 // vbroadcastss 0x3f50(%rip),%ymm13 # 6a80 <_sk_clut_4D_hsw+0xaf6> .byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10 .byte 196,98,125,24,13,70,63,0,0 // vbroadcastss 0x3f46(%rip),%ymm9 # 6a84 <_sk_clut_4D_hsw+0xafa> .byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10 .byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14 .byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14 .byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15 .byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15 .byte 196,98,125,24,29,42,63,0,0 // vbroadcastss 0x3f2a(%rip),%ymm11 # 6a88 <_sk_clut_4D_hsw+0xafe> .byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12 .byte 196,98,125,24,45,32,63,0,0 // vbroadcastss 0x3f20(%rip),%ymm13 # 6a8c <_sk_clut_4D_hsw+0xb02> .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12 .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12 .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10 .byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8 .byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8 .byte 196,226,125,24,21,252,62,0,0 // vbroadcastss 0x3efc(%rip),%ymm2 # 6a90 <_sk_clut_4D_hsw+0xb06> .byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10 .byte 196,226,125,24,29,243,62,0,0 // vbroadcastss 0x3ef3(%rip),%ymm3 # 6a94 <_sk_clut_4D_hsw+0xb0a> .byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10 .byte 196,226,125,24,13,233,62,0,0 // vbroadcastss 0x3ee9(%rip),%ymm1 # 6a98 <_sk_clut_4D_hsw+0xb0e> .byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8 .byte 196,226,125,24,5,223,62,0,0 // vbroadcastss 0x3edf(%rip),%ymm0 # 6a9c <_sk_clut_4D_hsw+0xb12> .byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8 .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8 .byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6 .byte 197,204,86,244 // vorps %ymm4,%ymm6,%ymm6 .byte 196,66,77,188,241 // vfnmadd231ps %ymm9,%ymm6,%ymm14 .byte 196,193,76,88,243 // vaddps %ymm11,%ymm6,%ymm6 .byte 197,148,94,246 // vdivps %ymm6,%ymm13,%ymm6 .byte 197,140,92,246 // vsubps %ymm6,%ymm14,%ymm6 .byte 196,193,76,89,244 // vmulps %ymm12,%ymm6,%ymm6 .byte 196,99,125,8,214,1 // vroundps $0x1,%ymm6,%ymm10 .byte 196,65,76,92,210 // vsubps %ymm10,%ymm6,%ymm10 .byte 197,204,88,242 // vaddps %ymm2,%ymm6,%ymm6 .byte 196,226,45,188,243 // vfnmadd231ps %ymm3,%ymm10,%ymm6 .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10 .byte 196,65,124,94,210 // vdivps %ymm10,%ymm0,%ymm10 .byte 196,193,76,88,242 // vaddps %ymm10,%ymm6,%ymm6 .byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5 .byte 197,212,86,228 // vorps %ymm4,%ymm5,%ymm4 .byte 196,66,93,188,249 // vfnmadd231ps %ymm9,%ymm4,%ymm15 .byte 196,193,92,88,227 // vaddps %ymm11,%ymm4,%ymm4 .byte 197,148,94,228 // vdivps %ymm4,%ymm13,%ymm4 .byte 197,132,92,228 // vsubps %ymm4,%ymm15,%ymm4 .byte 196,193,92,89,228 // vmulps %ymm12,%ymm4,%ymm4 .byte 196,227,125,8,236,1 // vroundps $0x1,%ymm4,%ymm5 .byte 197,220,92,237 // vsubps %ymm5,%ymm4,%ymm5 .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2 .byte 196,226,85,188,211 // vfnmadd231ps %ymm3,%ymm5,%ymm2 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0 .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0 .byte 196,226,125,24,13,80,62,0,0 // vbroadcastss 0x3e50(%rip),%ymm1 # 6aa0 <_sk_clut_4D_hsw+0xb16> .byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2 .byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3 .byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4 .byte 197,253,91,194 // vcvtps2dq %ymm2,%ymm0 .byte 197,253,91,203 // vcvtps2dq %ymm3,%ymm1 .byte 197,253,91,212 // vcvtps2dq %ymm4,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,92,36,128 // vmovups -0x80(%rsp),%ymm3 .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4 .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5 .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6 .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7 .byte 72,131,196,56 // add $0x38,%rsp .byte 255,224 // jmpq *%rax HIDDEN _sk_lab_to_xyz_hsw .globl _sk_lab_to_xyz_hsw FUNCTION(_sk_lab_to_xyz_hsw) _sk_lab_to_xyz_hsw: .byte 196,98,125,24,5,14,62,0,0 // vbroadcastss 0x3e0e(%rip),%ymm8 # 6aa4 <_sk_clut_4D_hsw+0xb1a> .byte 196,98,125,24,13,9,62,0,0 // vbroadcastss 0x3e09(%rip),%ymm9 # 6aa8 <_sk_clut_4D_hsw+0xb1e> .byte 196,98,125,24,21,4,62,0,0 // vbroadcastss 0x3e04(%rip),%ymm10 # 6aac <_sk_clut_4D_hsw+0xb22> .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1 .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2 .byte 196,98,125,24,13,245,61,0,0 // vbroadcastss 0x3df5(%rip),%ymm9 # 6ab0 <_sk_clut_4D_hsw+0xb26> .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9 .byte 196,226,125,24,5,235,61,0,0 // vbroadcastss 0x3deb(%rip),%ymm0 # 6ab4 <_sk_clut_4D_hsw+0xb2a> .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 196,98,125,24,5,226,61,0,0 // vbroadcastss 0x3de2(%rip),%ymm8 # 6ab8 <_sk_clut_4D_hsw+0xb2e> .byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8 .byte 196,98,125,24,13,216,61,0,0 // vbroadcastss 0x3dd8(%rip),%ymm9 # 6abc <_sk_clut_4D_hsw+0xb32> .byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9 .byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 196,226,125,24,21,197,61,0,0 // vbroadcastss 0x3dc5(%rip),%ymm2 # 6ac0 <_sk_clut_4D_hsw+0xb36> .byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10 .byte 196,98,125,24,29,187,61,0,0 // vbroadcastss 0x3dbb(%rip),%ymm11 # 6ac4 <_sk_clut_4D_hsw+0xb3a> .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8 .byte 196,98,125,24,37,177,61,0,0 // vbroadcastss 0x3db1(%rip),%ymm12 # 6ac8 <_sk_clut_4D_hsw+0xb3e> .byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8 .byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8 .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1 .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1 .byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10 .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0 .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1 .byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,236,194,208,1 // vcmpltps %ymm0,%ymm2,%ymm2 .byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9 .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9 .byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2 .byte 196,226,125,24,5,102,61,0,0 // vbroadcastss 0x3d66(%rip),%ymm0 # 6acc <_sk_clut_4D_hsw+0xb42> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,98,125,24,5,93,61,0,0 // vbroadcastss 0x3d5d(%rip),%ymm8 # 6ad0 <_sk_clut_4D_hsw+0xb46> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_load_a8_hsw .globl _sk_load_a8_hsw FUNCTION(_sk_load_a8_hsw) _sk_load_a8_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,53 // jne 2dca <_sk_load_a8_hsw+0x4e> .byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0 .byte 197,249,219,5,221,66,0,0 // vpand 0x42dd(%rip),%xmm0,%xmm0 # 7080 <_sk_clut_4D_hsw+0x10f6> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,31,61,0,0 // vbroadcastss 0x3d1f(%rip),%ymm1 # 6ad4 <_sk_clut_4D_hsw+0xb4a> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,189 // ja 2d9b <_sk_load_a8_hsw+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,119,0,0,0 // lea 0x77(%rip),%r11 # 2e60 <_sk_load_a8_hsw+0xe4> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 235,158 // jmp 2d9b <_sk_load_a8_hsw+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 .byte 233,118,255,255,255 // jmpq 2d9b <_sk_load_a8_hsw+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0 .byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 .byte 233,59,255,255,255 // jmpq 2d9b <_sk_load_a8_hsw+0x1f> .byte 146 // xchg %eax,%edx .byte 255 // (bad) .byte 255 // (bad) .byte 255,172,255,255,255,157,255 // ljmp *-0x620001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // (bad) .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,212 // callq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255,197 // inc %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_a8_dst_hsw .globl _sk_load_a8_dst_hsw FUNCTION(_sk_load_a8_dst_hsw) _sk_load_a8_dst_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,53 // jne 2eca <_sk_load_a8_dst_hsw+0x4e> .byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4 .byte 197,217,219,37,237,65,0,0 // vpand 0x41ed(%rip),%xmm4,%xmm4 # 7090 <_sk_clut_4D_hsw+0x1106> .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,35,60,0,0 // vbroadcastss 0x3c23(%rip),%ymm5 # 6ad8 <_sk_clut_4D_hsw+0xb4e> .byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,189 // ja 2e9b <_sk_load_a8_dst_hsw+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,119,0,0,0 // lea 0x77(%rip),%r11 # 2f60 <_sk_load_a8_dst_hsw+0xe4> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 235,158 // jmp 2e9b <_sk_load_a8_dst_hsw+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 .byte 233,118,255,255,255 // jmpq 2e9b <_sk_load_a8_dst_hsw+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4 .byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 .byte 233,59,255,255,255 // jmpq 2e9b <_sk_load_a8_dst_hsw+0x1f> .byte 146 // xchg %eax,%edx .byte 255 // (bad) .byte 255 // (bad) .byte 255,172,255,255,255,157,255 // ljmp *-0x620001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // (bad) .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,212 // callq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255,197 // inc %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_a8_hsw .globl _sk_gather_a8_hsw FUNCTION(_sk_gather_a8_hsw) _sk_gather_a8_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,32,12,1,0 // vpinsrb $0x0,(%r9,%rax,1),%xmm0,%xmm1 .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,113,32,12,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm1,%xmm1 .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,113,32,202,2 // vpinsrb $0x2,%r10d,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,3 // vpinsrb $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,4 // vpinsrb $0x4,%eax,%xmm1,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax .byte 196,227,113,32,192,5 // vpinsrb $0x5,%eax,%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,170,58,0,0 // vbroadcastss 0x3aaa(%rip),%ymm1 # 6adc <_sk_clut_4D_hsw+0xb52> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_store_a8_hsw .globl _sk_store_a8_hsw FUNCTION(_sk_store_a8_hsw) _sk_store_a8_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 196,98,125,24,5,125,58,0,0 // vbroadcastss 0x3a7d(%rip),%ymm8 # 6ae0 <_sk_clut_4D_hsw+0xb56> .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 308d <_sk_store_a8_hsw+0x47> .byte 196,65,123,17,4,25 // vmovsd %xmm8,(%r9,%rbx,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,235 // ja 3088 <_sk_store_a8_hsw+0x42> .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8 .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,87,0,0,0 // lea 0x57(%rip),%r11 # 3104 <_sk_store_a8_hsw+0xbe> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,20,4,25,0 // vpextrb $0x0,%xmm8,(%r9,%rbx,1) .byte 235,201 // jmp 3088 <_sk_store_a8_hsw+0x42> .byte 196,67,121,20,68,25,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rbx,1) .byte 196,98,57,0,5,208,63,0,0 // vpshufb 0x3fd0(%rip),%xmm8,%xmm8 # 70a0 <_sk_clut_4D_hsw+0x1116> .byte 196,67,121,21,4,25,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,1) .byte 235,175 // jmp 3088 <_sk_store_a8_hsw+0x42> .byte 196,67,121,20,68,25,6,12 // vpextrb $0xc,%xmm8,0x6(%r9,%rbx,1) .byte 196,67,121,20,68,25,5,10 // vpextrb $0xa,%xmm8,0x5(%r9,%rbx,1) .byte 196,67,121,20,68,25,4,8 // vpextrb $0x8,%xmm8,0x4(%r9,%rbx,1) .byte 196,98,57,0,5,182,63,0,0 // vpshufb 0x3fb6(%rip),%xmm8,%xmm8 # 70b0 <_sk_clut_4D_hsw+0x1126> .byte 196,65,121,126,4,25 // vmovd %xmm8,(%r9,%rbx,1) .byte 235,134 // jmp 3088 <_sk_store_a8_hsw+0x42> .byte 102,144 // xchg %ax,%ax .byte 178,255 // mov $0xff,%dl .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 187,255,255,255,237 // mov $0xedffffff,%ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 221,255 // (bad) .byte 255 // (bad) .byte 255,213 // callq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_g8_hsw .globl _sk_load_g8_hsw FUNCTION(_sk_load_g8_hsw) _sk_load_g8_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,58 // jne 3173 <_sk_load_g8_hsw+0x53> .byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0 .byte 197,249,219,5,121,63,0,0 // vpand 0x3f79(%rip),%xmm0,%xmm0 # 70c0 <_sk_clut_4D_hsw+0x1136> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,139,57,0,0 // vbroadcastss 0x398b(%rip),%ymm1 # 6ae4 <_sk_clut_4D_hsw+0xb5a> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,128,57,0,0 // vbroadcastss 0x3980(%rip),%ymm3 # 6ae8 <_sk_clut_4D_hsw+0xb5e> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,184 // ja 313f <_sk_load_g8_hsw+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 320c <_sk_load_g8_hsw+0xec> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 235,153 // jmp 313f <_sk_load_g8_hsw+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 .byte 233,113,255,255,255 // jmpq 313f <_sk_load_g8_hsw+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0 .byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 .byte 233,54,255,255,255 // jmpq 313f <_sk_load_g8_hsw+0x1f> .byte 15,31,0 // nopl (%rax) .byte 143 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,169,255,255,255,154 // ljmp *-0x65000001(%rcx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255,194 // inc %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_g8_dst_hsw .globl _sk_load_g8_dst_hsw FUNCTION(_sk_load_g8_dst_hsw) _sk_load_g8_dst_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,58 // jne 327b <_sk_load_g8_dst_hsw+0x53> .byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4 .byte 197,217,219,37,129,62,0,0 // vpand 0x3e81(%rip),%xmm4,%xmm4 # 70d0 <_sk_clut_4D_hsw+0x1146> .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,139,56,0,0 // vbroadcastss 0x388b(%rip),%ymm5 # 6aec <_sk_clut_4D_hsw+0xb62> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,61,128,56,0,0 // vbroadcastss 0x3880(%rip),%ymm7 # 6af0 <_sk_clut_4D_hsw+0xb66> .byte 197,252,40,236 // vmovaps %ymm4,%ymm5 .byte 197,252,40,244 // vmovaps %ymm4,%ymm6 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,184 // ja 3247 <_sk_load_g8_dst_hsw+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 3314 <_sk_load_g8_dst_hsw+0xec> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 235,153 // jmp 3247 <_sk_load_g8_dst_hsw+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 .byte 233,113,255,255,255 // jmpq 3247 <_sk_load_g8_dst_hsw+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4 .byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 .byte 233,54,255,255,255 // jmpq 3247 <_sk_load_g8_dst_hsw+0x1f> .byte 15,31,0 // nopl (%rax) .byte 143 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,169,255,255,255,154 // ljmp *-0x65000001(%rcx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255,194 // inc %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_g8_hsw .globl _sk_gather_g8_hsw FUNCTION(_sk_gather_g8_hsw) _sk_gather_g8_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,32,12,1,0 // vpinsrb $0x0,(%r9,%rax,1),%xmm0,%xmm1 .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,113,32,12,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm1,%xmm1 .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,113,32,202,2 // vpinsrb $0x2,%r10d,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,3 // vpinsrb $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,4 // vpinsrb $0x4,%eax,%xmm1,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax .byte 196,227,113,32,192,5 // vpinsrb $0x5,%eax,%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,14,55,0,0 // vbroadcastss 0x370e(%rip),%ymm1 # 6af4 <_sk_clut_4D_hsw+0xb6a> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,3,55,0,0 // vbroadcastss 0x3703(%rip),%ymm3 # 6af8 <_sk_clut_4D_hsw+0xb6e> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_565_hsw .globl _sk_load_565_hsw FUNCTION(_sk_load_565_hsw) _sk_load_565_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,115 // jne 348e <_sk_load_565_hsw+0x8f> .byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0 .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2 .byte 196,226,125,88,5,205,54,0,0 // vpbroadcastd 0x36cd(%rip),%ymm0 # 6afc <_sk_clut_4D_hsw+0xb72> .byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,192,54,0,0 // vbroadcastss 0x36c0(%rip),%ymm1 # 6b00 <_sk_clut_4D_hsw+0xb76> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,88,13,183,54,0,0 // vpbroadcastd 0x36b7(%rip),%ymm1 # 6b04 <_sk_clut_4D_hsw+0xb7a> .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,29,170,54,0,0 // vbroadcastss 0x36aa(%rip),%ymm3 # 6b08 <_sk_clut_4D_hsw+0xb7e> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 196,226,125,88,29,161,54,0,0 // vpbroadcastd 0x36a1(%rip),%ymm3 # 6b0c <_sk_clut_4D_hsw+0xb82> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,226,125,24,29,148,54,0,0 // vbroadcastss 0x3694(%rip),%ymm3 # 6b10 <_sk_clut_4D_hsw+0xb86> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,137,54,0,0 // vbroadcastss 0x3689(%rip),%ymm3 # 6b14 <_sk_clut_4D_hsw+0xb8a> .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,123,255,255,255 // ja 3421 <_sk_load_565_hsw+0x22> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 3514 <_sk_load_565_hsw+0x115> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 233,89,255,255,255 // jmpq 3421 <_sk_load_565_hsw+0x22> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 .byte 233,60,255,255,255 // jmpq 3421 <_sk_load_565_hsw+0x22> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 .byte 233,15,255,255,255 // jmpq 3421 <_sk_load_565_hsw+0x22> .byte 102,144 // xchg %ax,%ax .byte 166 // cmpsb %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,192 // inc %eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,180,255,255,255,237,255 // pushq -0x120001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 221,255 // (bad) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_565_dst_hsw .globl _sk_load_565_dst_hsw FUNCTION(_sk_load_565_dst_hsw) _sk_load_565_dst_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,115 // jne 35bf <_sk_load_565_dst_hsw+0x8f> .byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4 .byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6 .byte 196,226,125,88,37,184,53,0,0 // vpbroadcastd 0x35b8(%rip),%ymm4 # 6b18 <_sk_clut_4D_hsw+0xb8e> .byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,171,53,0,0 // vbroadcastss 0x35ab(%rip),%ymm5 # 6b1c <_sk_clut_4D_hsw+0xb92> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 196,226,125,88,45,162,53,0,0 // vpbroadcastd 0x35a2(%rip),%ymm5 # 6b20 <_sk_clut_4D_hsw+0xb96> .byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,226,125,24,61,149,53,0,0 // vbroadcastss 0x3595(%rip),%ymm7 # 6b24 <_sk_clut_4D_hsw+0xb9a> .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5 .byte 196,226,125,88,61,140,53,0,0 // vpbroadcastd 0x358c(%rip),%ymm7 # 6b28 <_sk_clut_4D_hsw+0xb9e> .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,226,125,24,61,127,53,0,0 // vbroadcastss 0x357f(%rip),%ymm7 # 6b2c <_sk_clut_4D_hsw+0xba2> .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,61,116,53,0,0 // vbroadcastss 0x3574(%rip),%ymm7 # 6b30 <_sk_clut_4D_hsw+0xba6> .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,123,255,255,255 // ja 3552 <_sk_load_565_dst_hsw+0x22> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3644 <_sk_load_565_dst_hsw+0x114> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 233,89,255,255,255 // jmpq 3552 <_sk_load_565_dst_hsw+0x22> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 .byte 233,60,255,255,255 // jmpq 3552 <_sk_load_565_dst_hsw+0x22> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 .byte 233,15,255,255,255 // jmpq 3552 <_sk_load_565_dst_hsw+0x22> .byte 144 // nop .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255,181,255,255,255,238 // pushq -0x11000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255,230 // jmpq *%rsi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 222,255 // fdivrp %st,%st(7) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_565_hsw .globl _sk_gather_565_hsw FUNCTION(_sk_gather_565_hsw) _sk_gather_565_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,241,196,200,1 // vpinsrw $0x1,%eax,%xmm1,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,2 // vpinsrw $0x2,%eax,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,241,196,200,3 // vpinsrw $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,4 // vpinsrw $0x4,%eax,%xmm1,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,241,196,192,5 // vpinsrw $0x5,%eax,%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2 .byte 196,226,125,88,5,35,52,0,0 // vpbroadcastd 0x3423(%rip),%ymm0 # 6b34 <_sk_clut_4D_hsw+0xbaa> .byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,22,52,0,0 // vbroadcastss 0x3416(%rip),%ymm1 # 6b38 <_sk_clut_4D_hsw+0xbae> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,88,13,13,52,0,0 // vpbroadcastd 0x340d(%rip),%ymm1 # 6b3c <_sk_clut_4D_hsw+0xbb2> .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,29,0,52,0,0 // vbroadcastss 0x3400(%rip),%ymm3 # 6b40 <_sk_clut_4D_hsw+0xbb6> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 196,226,125,88,29,247,51,0,0 // vpbroadcastd 0x33f7(%rip),%ymm3 # 6b44 <_sk_clut_4D_hsw+0xbba> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,226,125,24,29,234,51,0,0 // vbroadcastss 0x33ea(%rip),%ymm3 # 6b48 <_sk_clut_4D_hsw+0xbbe> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,223,51,0,0 // vbroadcastss 0x33df(%rip),%ymm3 # 6b4c <_sk_clut_4D_hsw+0xbc2> .byte 255,224 // jmpq *%rax HIDDEN _sk_store_565_hsw .globl _sk_store_565_hsw FUNCTION(_sk_store_565_hsw) _sk_store_565_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 196,98,125,24,5,193,51,0,0 // vbroadcastss 0x33c1(%rip),%ymm8 # 6b50 <_sk_clut_4D_hsw+0xbc6> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9 .byte 196,98,125,24,21,172,51,0,0 // vbroadcastss 0x33ac(%rip),%ymm10 # 6b54 <_sk_clut_4D_hsw+0xbca> .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10 .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 37e7 <_sk_store_565_hsw+0x78> .byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,235 // ja 37e2 <_sk_store_565_hsw+0x73> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,66,0,0,0 // lea 0x42(%rip),%r11 # 3844 <_sk_store_565_hsw+0xd5> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2) .byte 235,206 // jmp 37e2 <_sk_store_565_hsw+0x73> .byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2) .byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2) .byte 235,190 // jmp 37e2 <_sk_store_565_hsw+0x73> .byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2) .byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2) .byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2) .byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2) .byte 235,158 // jmp 37e2 <_sk_store_565_hsw+0x73> .byte 199 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 216,255 // fdivr %st(7),%st .byte 255 // (bad) .byte 255,208 // callq *%rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 248 // clc .byte 255 // (bad) .byte 255 // (bad) .byte 255,240 // push %rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,224 // callq ffffffffe100385c <_sk_clut_4D_hsw+0xffffffffe0ffd8d2> .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_4444_hsw .globl _sk_load_4444_hsw FUNCTION(_sk_load_4444_hsw) _sk_load_4444_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,139,0,0,0 // jne 390b <_sk_load_4444_hsw+0xab> .byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0 .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3 .byte 196,226,125,88,5,196,50,0,0 // vpbroadcastd 0x32c4(%rip),%ymm0 # 6b58 <_sk_clut_4D_hsw+0xbce> .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,183,50,0,0 // vbroadcastss 0x32b7(%rip),%ymm1 # 6b5c <_sk_clut_4D_hsw+0xbd2> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,88,13,174,50,0,0 // vpbroadcastd 0x32ae(%rip),%ymm1 # 6b60 <_sk_clut_4D_hsw+0xbd6> .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,21,161,50,0,0 // vbroadcastss 0x32a1(%rip),%ymm2 # 6b64 <_sk_clut_4D_hsw+0xbda> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 .byte 196,226,125,88,21,152,50,0,0 // vpbroadcastd 0x3298(%rip),%ymm2 # 6b68 <_sk_clut_4D_hsw+0xbde> .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,98,125,24,5,139,50,0,0 // vbroadcastss 0x328b(%rip),%ymm8 # 6b6c <_sk_clut_4D_hsw+0xbe2> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,98,125,88,5,129,50,0,0 // vpbroadcastd 0x3281(%rip),%ymm8 # 6b70 <_sk_clut_4D_hsw+0xbe6> .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,98,125,24,5,115,50,0,0 // vbroadcastss 0x3273(%rip),%ymm8 # 6b74 <_sk_clut_4D_hsw+0xbea> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,99,255,255,255 // ja 3886 <_sk_load_4444_hsw+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3990 <_sk_load_4444_hsw+0x130> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 233,65,255,255,255 // jmpq 3886 <_sk_load_4444_hsw+0x26> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 .byte 233,36,255,255,255 // jmpq 3886 <_sk_load_4444_hsw+0x26> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 .byte 233,247,254,255,255 // jmpq 3886 <_sk_load_4444_hsw+0x26> .byte 144 // nop .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255,181,255,255,255,238 // pushq -0x11000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255,230 // jmpq *%rsi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 222,255 // fdivrp %st,%st(7) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_4444_dst_hsw .globl _sk_load_4444_dst_hsw FUNCTION(_sk_load_4444_dst_hsw) _sk_load_4444_dst_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,139,0,0,0 // jne 3a57 <_sk_load_4444_dst_hsw+0xab> .byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4 .byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7 .byte 196,226,125,88,37,152,49,0,0 // vpbroadcastd 0x3198(%rip),%ymm4 # 6b78 <_sk_clut_4D_hsw+0xbee> .byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,139,49,0,0 // vbroadcastss 0x318b(%rip),%ymm5 # 6b7c <_sk_clut_4D_hsw+0xbf2> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 196,226,125,88,45,130,49,0,0 // vpbroadcastd 0x3182(%rip),%ymm5 # 6b80 <_sk_clut_4D_hsw+0xbf6> .byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,226,125,24,53,117,49,0,0 // vbroadcastss 0x3175(%rip),%ymm6 # 6b84 <_sk_clut_4D_hsw+0xbfa> .byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5 .byte 196,226,125,88,53,108,49,0,0 // vpbroadcastd 0x316c(%rip),%ymm6 # 6b88 <_sk_clut_4D_hsw+0xbfe> .byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,98,125,24,5,95,49,0,0 // vbroadcastss 0x315f(%rip),%ymm8 # 6b8c <_sk_clut_4D_hsw+0xc02> .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 .byte 196,98,125,88,5,85,49,0,0 // vpbroadcastd 0x3155(%rip),%ymm8 # 6b90 <_sk_clut_4D_hsw+0xc06> .byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,98,125,24,5,71,49,0,0 // vbroadcastss 0x3147(%rip),%ymm8 # 6b94 <_sk_clut_4D_hsw+0xc0a> .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,99,255,255,255 // ja 39d2 <_sk_load_4444_dst_hsw+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,98,0,0,0 // lea 0x62(%rip),%r11 # 3adc <_sk_load_4444_dst_hsw+0x130> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 233,65,255,255,255 // jmpq 39d2 <_sk_load_4444_dst_hsw+0x26> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 .byte 233,36,255,255,255 // jmpq 39d2 <_sk_load_4444_dst_hsw+0x26> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 .byte 233,247,254,255,255 // jmpq 39d2 <_sk_load_4444_dst_hsw+0x26> .byte 144 // nop .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255,181,255,255,255,238 // pushq -0x11000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255,230 // jmpq *%rsi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 222,255 // fdivrp %st,%st(7) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_4444_hsw .globl _sk_gather_4444_hsw FUNCTION(_sk_gather_4444_hsw) _sk_gather_4444_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,241,196,200,1 // vpinsrw $0x1,%eax,%xmm1,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,2 // vpinsrw $0x2,%eax,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,241,196,200,3 // vpinsrw $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,4 // vpinsrw $0x4,%eax,%xmm1,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,241,196,192,5 // vpinsrw $0x5,%eax,%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3 .byte 196,226,125,88,5,239,47,0,0 // vpbroadcastd 0x2fef(%rip),%ymm0 # 6b98 <_sk_clut_4D_hsw+0xc0e> .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,226,47,0,0 // vbroadcastss 0x2fe2(%rip),%ymm1 # 6b9c <_sk_clut_4D_hsw+0xc12> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,88,13,217,47,0,0 // vpbroadcastd 0x2fd9(%rip),%ymm1 # 6ba0 <_sk_clut_4D_hsw+0xc16> .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,21,204,47,0,0 // vbroadcastss 0x2fcc(%rip),%ymm2 # 6ba4 <_sk_clut_4D_hsw+0xc1a> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 .byte 196,226,125,88,21,195,47,0,0 // vpbroadcastd 0x2fc3(%rip),%ymm2 # 6ba8 <_sk_clut_4D_hsw+0xc1e> .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,98,125,24,5,182,47,0,0 // vbroadcastss 0x2fb6(%rip),%ymm8 # 6bac <_sk_clut_4D_hsw+0xc22> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,98,125,88,5,172,47,0,0 // vpbroadcastd 0x2fac(%rip),%ymm8 # 6bb0 <_sk_clut_4D_hsw+0xc26> .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,98,125,24,5,158,47,0,0 // vbroadcastss 0x2f9e(%rip),%ymm8 # 6bb4 <_sk_clut_4D_hsw+0xc2a> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_4444_hsw .globl _sk_store_4444_hsw FUNCTION(_sk_store_4444_hsw) _sk_store_4444_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 196,98,125,24,5,121,47,0,0 // vbroadcastss 0x2f79(%rip),%ymm8 # 6bb8 <_sk_clut_4D_hsw+0xc2e> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 3ca3 <_sk_store_4444_hsw+0x84> .byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,235 // ja 3c9e <_sk_store_4444_hsw+0x7f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,66,0,0,0 // lea 0x42(%rip),%r11 # 3d00 <_sk_store_4444_hsw+0xe1> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2) .byte 235,206 // jmp 3c9e <_sk_store_4444_hsw+0x7f> .byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2) .byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2) .byte 235,190 // jmp 3c9e <_sk_store_4444_hsw+0x7f> .byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2) .byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2) .byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2) .byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2) .byte 235,158 // jmp 3c9e <_sk_store_4444_hsw+0x7f> .byte 199 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 216,255 // fdivr %st(7),%st .byte 255 // (bad) .byte 255,208 // callq *%rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 248 // clc .byte 255 // (bad) .byte 255 // (bad) .byte 255,240 // push %rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,224 // callq ffffffffe1003d18 <_sk_clut_4D_hsw+0xffffffffe0ffdd8e> .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_8888_hsw .globl _sk_load_8888_hsw FUNCTION(_sk_load_8888_hsw) _sk_load_8888_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,87 // jne 3d96 <_sk_load_8888_hsw+0x7a> .byte 197,252,16,24 // vmovups (%rax),%ymm3 .byte 197,228,84,5,181,48,0,0 // vandps 0x30b5(%rip),%ymm3,%ymm0 # 6e00 <_sk_clut_4D_hsw+0xe76> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,100,46,0,0 // vbroadcastss 0x2e64(%rip),%ymm8 # 6bbc <_sk_clut_4D_hsw+0xc32> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,101,0,13,186,48,0,0 // vpshufb 0x30ba(%rip),%ymm3,%ymm1 # 6e20 <_sk_clut_4D_hsw+0xe96> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,226,101,0,21,200,48,0,0 // vpshufb 0x30c8(%rip),%ymm3,%ymm2 # 6e40 <_sk_clut_4D_hsw+0xeb6> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,194 // vmovq %r10,%xmm0 .byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0 .byte 196,226,125,44,24 // vmaskmovps (%rax),%ymm0,%ymm3 .byte 235,135 // jmp 3d43 <_sk_load_8888_hsw+0x27> HIDDEN _sk_load_8888_dst_hsw .globl _sk_load_8888_dst_hsw FUNCTION(_sk_load_8888_dst_hsw) _sk_load_8888_dst_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,87 // jne 3e36 <_sk_load_8888_dst_hsw+0x7a> .byte 197,252,16,56 // vmovups (%rax),%ymm7 .byte 197,196,84,37,117,48,0,0 // vandps 0x3075(%rip),%ymm7,%ymm4 # 6e60 <_sk_clut_4D_hsw+0xed6> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,98,125,24,5,200,45,0,0 // vbroadcastss 0x2dc8(%rip),%ymm8 # 6bc0 <_sk_clut_4D_hsw+0xc36> .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 196,226,69,0,45,122,48,0,0 // vpshufb 0x307a(%rip),%ymm7,%ymm5 # 6e80 <_sk_clut_4D_hsw+0xef6> .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5 .byte 196,226,69,0,53,136,48,0,0 // vpshufb 0x3088(%rip),%ymm7,%ymm6 # 6ea0 <_sk_clut_4D_hsw+0xf16> .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,226 // vmovq %r10,%xmm4 .byte 196,226,125,33,228 // vpmovsxbd %xmm4,%ymm4 .byte 196,226,93,44,56 // vmaskmovps (%rax),%ymm4,%ymm7 .byte 235,135 // jmp 3de3 <_sk_load_8888_dst_hsw+0x27> HIDDEN _sk_gather_8888_hsw .globl _sk_gather_8888_hsw FUNCTION(_sk_gather_8888_hsw) _sk_gather_8888_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,194,117,144,28,129 // vpgatherdd %ymm1,(%r9,%ymm0,4),%ymm3 .byte 197,229,219,5,54,48,0,0 // vpand 0x3036(%rip),%ymm3,%ymm0 # 6ec0 <_sk_clut_4D_hsw+0xf36> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,45,45,0,0 // vbroadcastss 0x2d2d(%rip),%ymm8 # 6bc4 <_sk_clut_4D_hsw+0xc3a> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,101,0,13,59,48,0,0 // vpshufb 0x303b(%rip),%ymm3,%ymm1 # 6ee0 <_sk_clut_4D_hsw+0xf56> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,226,101,0,21,73,48,0,0 // vpshufb 0x3049(%rip),%ymm3,%ymm2 # 6f00 <_sk_clut_4D_hsw+0xf76> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_8888_hsw .globl _sk_store_8888_hsw FUNCTION(_sk_store_8888_hsw) _sk_store_8888_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 196,98,125,24,5,207,44,0,0 // vbroadcastss 0x2ccf(%rip),%ymm8 # 6bc8 <_sk_clut_4D_hsw+0xc3e> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 3f52 <_sk_store_8888_hsw+0x80> .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,65,249,110,202 // vmovq %r10,%xmm9 .byte 196,66,125,33,201 // vpmovsxbd %xmm9,%ymm9 .byte 196,98,53,46,0 // vmaskmovps %ymm8,%ymm9,(%rax) .byte 235,211 // jmp 3f4b <_sk_store_8888_hsw+0x79> HIDDEN _sk_load_bgra_hsw .globl _sk_load_bgra_hsw FUNCTION(_sk_load_bgra_hsw) _sk_load_bgra_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,87 // jne 3ff2 <_sk_load_bgra_hsw+0x7a> .byte 197,252,16,24 // vmovups (%rax),%ymm3 .byte 197,228,84,5,121,47,0,0 // vandps 0x2f79(%rip),%ymm3,%ymm0 # 6f20 <_sk_clut_4D_hsw+0xf96> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,24,44,0,0 // vbroadcastss 0x2c18(%rip),%ymm8 # 6bcc <_sk_clut_4D_hsw+0xc42> .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2 .byte 196,226,101,0,5,126,47,0,0 // vpshufb 0x2f7e(%rip),%ymm3,%ymm0 # 6f40 <_sk_clut_4D_hsw+0xfb6> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1 .byte 196,226,101,0,5,140,47,0,0 // vpshufb 0x2f8c(%rip),%ymm3,%ymm0 # 6f60 <_sk_clut_4D_hsw+0xfd6> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,194 // vmovq %r10,%xmm0 .byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0 .byte 196,226,125,44,24 // vmaskmovps (%rax),%ymm0,%ymm3 .byte 235,135 // jmp 3f9f <_sk_load_bgra_hsw+0x27> HIDDEN _sk_load_bgra_dst_hsw .globl _sk_load_bgra_dst_hsw FUNCTION(_sk_load_bgra_dst_hsw) _sk_load_bgra_dst_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,87 // jne 4092 <_sk_load_bgra_dst_hsw+0x7a> .byte 197,252,16,56 // vmovups (%rax),%ymm7 .byte 197,196,84,37,57,47,0,0 // vandps 0x2f39(%rip),%ymm7,%ymm4 # 6f80 <_sk_clut_4D_hsw+0xff6> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,98,125,24,5,124,43,0,0 // vbroadcastss 0x2b7c(%rip),%ymm8 # 6bd0 <_sk_clut_4D_hsw+0xc46> .byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6 .byte 196,226,69,0,37,62,47,0,0 // vpshufb 0x2f3e(%rip),%ymm7,%ymm4 # 6fa0 <_sk_clut_4D_hsw+0x1016> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5 .byte 196,226,69,0,37,76,47,0,0 // vpshufb 0x2f4c(%rip),%ymm7,%ymm4 # 6fc0 <_sk_clut_4D_hsw+0x1036> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,226 // vmovq %r10,%xmm4 .byte 196,226,125,33,228 // vpmovsxbd %xmm4,%ymm4 .byte 196,226,93,44,56 // vmaskmovps (%rax),%ymm4,%ymm7 .byte 235,135 // jmp 403f <_sk_load_bgra_dst_hsw+0x27> HIDDEN _sk_gather_bgra_hsw .globl _sk_gather_bgra_hsw FUNCTION(_sk_gather_bgra_hsw) _sk_gather_bgra_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,194,117,144,28,129 // vpgatherdd %ymm1,(%r9,%ymm0,4),%ymm3 .byte 197,229,219,5,250,46,0,0 // vpand 0x2efa(%rip),%ymm3,%ymm0 # 6fe0 <_sk_clut_4D_hsw+0x1056> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,225,42,0,0 // vbroadcastss 0x2ae1(%rip),%ymm8 # 6bd4 <_sk_clut_4D_hsw+0xc4a> .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2 .byte 196,226,101,0,5,255,46,0,0 // vpshufb 0x2eff(%rip),%ymm3,%ymm0 # 7000 <_sk_clut_4D_hsw+0x1076> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1 .byte 196,226,101,0,5,13,47,0,0 // vpshufb 0x2f0d(%rip),%ymm3,%ymm0 # 7020 <_sk_clut_4D_hsw+0x1096> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_bgra_hsw .globl _sk_store_bgra_hsw FUNCTION(_sk_store_bgra_hsw) _sk_store_bgra_hsw: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 196,98,125,24,5,131,42,0,0 // vbroadcastss 0x2a83(%rip),%ymm8 # 6bd8 <_sk_clut_4D_hsw+0xc4e> .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 41ae <_sk_store_bgra_hsw+0x80> .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,65,249,110,202 // vmovq %r10,%xmm9 .byte 196,66,125,33,201 // vpmovsxbd %xmm9,%ymm9 .byte 196,98,53,46,0 // vmaskmovps %ymm8,%ymm9,(%rax) .byte 235,211 // jmp 41a7 <_sk_store_bgra_hsw+0x79> HIDDEN _sk_load_f16_hsw .globl _sk_load_f16_hsw FUNCTION(_sk_load_f16_hsw) _sk_load_f16_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,101 // jne 4255 <_sk_load_f16_hsw+0x81> .byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8 .byte 196,193,121,16,84,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm2 .byte 196,193,121,16,92,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm3 .byte 196,65,122,111,76,193,48 // vmovdqu 0x30(%r9,%rax,8),%xmm9 .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0 .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2 .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1 .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3 .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0 .byte 196,226,125,19,192 // vcvtph2ps %xmm0,%ymm0 .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1 .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1 .byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2 .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2 .byte 197,177,109,219 // vpunpckhqdq %xmm3,%xmm9,%xmm3 .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 42bb <_sk_load_f16_hsw+0xe7> .byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 42bb <_sk_load_f16_hsw+0xe7> .byte 196,193,123,16,84,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 42c8 <_sk_load_f16_hsw+0xf4> .byte 196,193,105,22,84,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm2,%xmm2 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 42c8 <_sk_load_f16_hsw+0xf4> .byte 196,193,123,16,92,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm3 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,109,255,255,255 // je 420b <_sk_load_f16_hsw+0x37> .byte 196,193,97,22,92,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm3,%xmm3 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,92,255,255,255 // jb 420b <_sk_load_f16_hsw+0x37> .byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9 .byte 233,80,255,255,255 // jmpq 420b <_sk_load_f16_hsw+0x37> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 .byte 233,67,255,255,255 // jmpq 420b <_sk_load_f16_hsw+0x37> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 233,58,255,255,255 // jmpq 420b <_sk_load_f16_hsw+0x37> HIDDEN _sk_load_f16_dst_hsw .globl _sk_load_f16_dst_hsw FUNCTION(_sk_load_f16_dst_hsw) _sk_load_f16_dst_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,101 // jne 4352 <_sk_load_f16_dst_hsw+0x81> .byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8 .byte 196,193,121,16,116,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm6 .byte 196,193,121,16,124,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm7 .byte 196,65,122,111,76,193,48 // vmovdqu 0x30(%r9,%rax,8),%xmm9 .byte 197,185,97,230 // vpunpcklwd %xmm6,%xmm8,%xmm4 .byte 197,185,105,246 // vpunpckhwd %xmm6,%xmm8,%xmm6 .byte 196,193,65,97,233 // vpunpcklwd %xmm9,%xmm7,%xmm5 .byte 196,193,65,105,249 // vpunpckhwd %xmm9,%xmm7,%xmm7 .byte 197,89,97,198 // vpunpcklwd %xmm6,%xmm4,%xmm8 .byte 197,89,105,206 // vpunpckhwd %xmm6,%xmm4,%xmm9 .byte 197,209,97,247 // vpunpcklwd %xmm7,%xmm5,%xmm6 .byte 197,209,105,255 // vpunpckhwd %xmm7,%xmm5,%xmm7 .byte 197,185,108,230 // vpunpcklqdq %xmm6,%xmm8,%xmm4 .byte 196,226,125,19,228 // vcvtph2ps %xmm4,%ymm4 .byte 197,185,109,238 // vpunpckhqdq %xmm6,%xmm8,%xmm5 .byte 196,226,125,19,237 // vcvtph2ps %xmm5,%ymm5 .byte 197,177,108,247 // vpunpcklqdq %xmm7,%xmm9,%xmm6 .byte 196,226,125,19,246 // vcvtph2ps %xmm6,%ymm6 .byte 197,177,109,255 // vpunpckhqdq %xmm7,%xmm9,%xmm7 .byte 196,226,125,19,255 // vcvtph2ps %xmm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 43b8 <_sk_load_f16_dst_hsw+0xe7> .byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 43b8 <_sk_load_f16_dst_hsw+0xe7> .byte 196,193,123,16,116,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm6 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 43c5 <_sk_load_f16_dst_hsw+0xf4> .byte 196,193,73,22,116,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm6,%xmm6 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 43c5 <_sk_load_f16_dst_hsw+0xf4> .byte 196,193,123,16,124,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm7 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,109,255,255,255 // je 4308 <_sk_load_f16_dst_hsw+0x37> .byte 196,193,65,22,124,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm7,%xmm7 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,92,255,255,255 // jb 4308 <_sk_load_f16_dst_hsw+0x37> .byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9 .byte 233,80,255,255,255 // jmpq 4308 <_sk_load_f16_dst_hsw+0x37> .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7 .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6 .byte 233,67,255,255,255 // jmpq 4308 <_sk_load_f16_dst_hsw+0x37> .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7 .byte 233,58,255,255,255 // jmpq 4308 <_sk_load_f16_dst_hsw+0x37> HIDDEN _sk_gather_f16_hsw .globl _sk_gather_f16_hsw FUNCTION(_sk_gather_f16_hsw) _sk_gather_f16_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2 .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,194,237,144,28,193 // vpgatherdq %ymm2,(%r9,%xmm0,8),%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,194,245,144,20,193 // vpgatherdq %ymm1,(%r9,%xmm0,8),%ymm2 .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0 .byte 196,227,125,57,209,1 // vextracti128 $0x1,%ymm2,%xmm1 .byte 197,97,97,192 // vpunpcklwd %xmm0,%xmm3,%xmm8 .byte 197,225,105,192 // vpunpckhwd %xmm0,%xmm3,%xmm0 .byte 197,233,97,217 // vpunpcklwd %xmm1,%xmm2,%xmm3 .byte 197,233,105,201 // vpunpckhwd %xmm1,%xmm2,%xmm1 .byte 197,57,97,200 // vpunpcklwd %xmm0,%xmm8,%xmm9 .byte 197,57,105,192 // vpunpckhwd %xmm0,%xmm8,%xmm8 .byte 197,225,97,209 // vpunpcklwd %xmm1,%xmm3,%xmm2 .byte 197,225,105,217 // vpunpckhwd %xmm1,%xmm3,%xmm3 .byte 197,177,108,194 // vpunpcklqdq %xmm2,%xmm9,%xmm0 .byte 196,226,125,19,192 // vcvtph2ps %xmm0,%ymm0 .byte 197,177,109,202 // vpunpckhqdq %xmm2,%xmm9,%xmm1 .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1 .byte 197,185,108,211 // vpunpcklqdq %xmm3,%xmm8,%xmm2 .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2 .byte 197,185,109,219 // vpunpckhqdq %xmm3,%xmm8,%xmm3 .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_f16_hsw .globl _sk_store_f16_hsw FUNCTION(_sk_store_f16_hsw) _sk_store_f16_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 196,195,125,29,192,4 // vcvtps2ph $0x4,%ymm0,%xmm8 .byte 196,195,125,29,201,4 // vcvtps2ph $0x4,%ymm1,%xmm9 .byte 196,195,125,29,210,4 // vcvtps2ph $0x4,%ymm2,%xmm10 .byte 196,195,125,29,219,4 // vcvtps2ph $0x4,%ymm3,%xmm11 .byte 196,65,57,97,225 // vpunpcklwd %xmm9,%xmm8,%xmm12 .byte 196,65,57,105,193 // vpunpckhwd %xmm9,%xmm8,%xmm8 .byte 196,65,41,97,203 // vpunpcklwd %xmm11,%xmm10,%xmm9 .byte 196,65,41,105,235 // vpunpckhwd %xmm11,%xmm10,%xmm13 .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11 .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10 .byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9 .byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,31 // jne 44d3 <_sk_store_f16_hsw+0x7b> .byte 196,65,120,17,28,193 // vmovups %xmm11,(%r9,%rax,8) .byte 196,65,120,17,84,193,16 // vmovups %xmm10,0x10(%r9,%rax,8) .byte 196,65,120,17,76,193,32 // vmovups %xmm9,0x20(%r9,%rax,8) .byte 196,65,122,127,68,193,48 // vmovdqu %xmm8,0x30(%r9,%rax,8) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,193 // vmovq %xmm11,(%r9,%rax,8) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 44cf <_sk_store_f16_hsw+0x77> .byte 196,65,121,23,92,193,8 // vmovhpd %xmm11,0x8(%r9,%rax,8) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 44cf <_sk_store_f16_hsw+0x77> .byte 196,65,121,214,84,193,16 // vmovq %xmm10,0x10(%r9,%rax,8) .byte 116,218 // je 44cf <_sk_store_f16_hsw+0x77> .byte 196,65,121,23,84,193,24 // vmovhpd %xmm10,0x18(%r9,%rax,8) .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,205 // jb 44cf <_sk_store_f16_hsw+0x77> .byte 196,65,121,214,76,193,32 // vmovq %xmm9,0x20(%r9,%rax,8) .byte 116,196 // je 44cf <_sk_store_f16_hsw+0x77> .byte 196,65,121,23,76,193,40 // vmovhpd %xmm9,0x28(%r9,%rax,8) .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,183 // jb 44cf <_sk_store_f16_hsw+0x77> .byte 196,65,121,214,68,193,48 // vmovq %xmm8,0x30(%r9,%rax,8) .byte 235,174 // jmp 44cf <_sk_store_f16_hsw+0x77> HIDDEN _sk_load_u16_be_hsw .globl _sk_load_u16_be_hsw FUNCTION(_sk_load_u16_be_hsw) _sk_load_u16_be_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,204,0,0,0 // jne 4614 <_sk_load_u16_be_hsw+0xf3> .byte 196,65,121,16,4,65 // vmovupd (%r9,%rax,2),%xmm8 .byte 196,193,121,16,84,65,16 // vmovupd 0x10(%r9,%rax,2),%xmm2 .byte 196,193,121,16,92,65,32 // vmovupd 0x20(%r9,%rax,2),%xmm3 .byte 196,65,122,111,76,65,48 // vmovdqu 0x30(%r9,%rax,2),%xmm9 .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0 .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2 .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1 .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11 .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0 .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1 .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0 .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,21,51,38,0,0 // vbroadcastss 0x2633(%rip),%ymm10 # 6bdc <_sk_clut_4D_hsw+0xc52> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1 .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1 .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 196,193,49,108,211 // vpunpcklqdq %xmm11,%xmm9,%xmm2 .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3 .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2 .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2 .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 .byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3 .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8 .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3 .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3 .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,123,16,4,65 // vmovsd (%r9,%rax,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 467a <_sk_load_u16_be_hsw+0x159> .byte 196,65,57,22,68,65,8 // vmovhpd 0x8(%r9,%rax,2),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 467a <_sk_load_u16_be_hsw+0x159> .byte 196,193,123,16,84,65,16 // vmovsd 0x10(%r9,%rax,2),%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 4687 <_sk_load_u16_be_hsw+0x166> .byte 196,193,105,22,84,65,24 // vmovhpd 0x18(%r9,%rax,2),%xmm2,%xmm2 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 4687 <_sk_load_u16_be_hsw+0x166> .byte 196,193,123,16,92,65,32 // vmovsd 0x20(%r9,%rax,2),%xmm3 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,6,255,255,255 // je 4563 <_sk_load_u16_be_hsw+0x42> .byte 196,193,97,22,92,65,40 // vmovhpd 0x28(%r9,%rax,2),%xmm3,%xmm3 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,245,254,255,255 // jb 4563 <_sk_load_u16_be_hsw+0x42> .byte 196,65,122,126,76,65,48 // vmovq 0x30(%r9,%rax,2),%xmm9 .byte 233,233,254,255,255 // jmpq 4563 <_sk_load_u16_be_hsw+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 .byte 233,220,254,255,255 // jmpq 4563 <_sk_load_u16_be_hsw+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 233,211,254,255,255 // jmpq 4563 <_sk_load_u16_be_hsw+0x42> HIDDEN _sk_load_rgb_u16_be_hsw .globl _sk_load_rgb_u16_be_hsw FUNCTION(_sk_load_rgb_u16_be_hsw) _sk_load_rgb_u16_be_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,137,208 // mov %rdx,%rax .byte 72,193,224,32 // shl $0x20,%rax .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,204,0,0,0 // jne 4787 <_sk_load_rgb_u16_be_hsw+0xf7> .byte 196,193,122,111,4,65 // vmovdqu (%r9,%rax,2),%xmm0 .byte 196,193,122,111,84,65,12 // vmovdqu 0xc(%r9,%rax,2),%xmm2 .byte 196,193,122,111,76,65,24 // vmovdqu 0x18(%r9,%rax,2),%xmm1 .byte 196,193,122,111,92,65,32 // vmovdqu 0x20(%r9,%rax,2),%xmm3 .byte 197,225,115,219,4 // vpsrldq $0x4,%xmm3,%xmm3 .byte 197,185,115,216,6 // vpsrldq $0x6,%xmm0,%xmm8 .byte 197,177,115,218,6 // vpsrldq $0x6,%xmm2,%xmm9 .byte 197,161,115,217,6 // vpsrldq $0x6,%xmm1,%xmm11 .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10 .byte 197,249,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm0 .byte 196,193,57,97,209 // vpunpcklwd %xmm9,%xmm8,%xmm2 .byte 197,241,97,203 // vpunpcklwd %xmm3,%xmm1,%xmm1 .byte 196,193,33,97,218 // vpunpcklwd %xmm10,%xmm11,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3 .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0 .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1 .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0 .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,21,171,36,0,0 // vbroadcastss 0x24ab(%rip),%ymm10 # 6be0 <_sk_clut_4D_hsw+0xc56> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1 .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1 .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2 .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3 .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2 .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2 .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,95,36,0,0 // vbroadcastss 0x245f(%rip),%ymm3 # 6be4 <_sk_clut_4D_hsw+0xc5a> .byte 255,224 // jmpq *%rax .byte 196,193,121,110,4,65 // vmovd (%r9,%rax,2),%xmm0 .byte 196,193,121,196,68,65,4,2 // vpinsrw $0x2,0x4(%r9,%rax,2),%xmm0,%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,5 // jne 47a0 <_sk_load_rgb_u16_be_hsw+0x110> .byte 233,79,255,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> .byte 196,193,121,110,76,65,6 // vmovd 0x6(%r9,%rax,2),%xmm1 .byte 196,65,113,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%rax,2),%xmm1,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,26 // jb 47cf <_sk_load_rgb_u16_be_hsw+0x13f> .byte 196,193,121,110,76,65,12 // vmovd 0xc(%r9,%rax,2),%xmm1 .byte 196,193,113,196,84,65,16,2 // vpinsrw $0x2,0x10(%r9,%rax,2),%xmm1,%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 117,10 // jne 47d4 <_sk_load_rgb_u16_be_hsw+0x144> .byte 233,32,255,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> .byte 233,27,255,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> .byte 196,193,121,110,76,65,18 // vmovd 0x12(%r9,%rax,2),%xmm1 .byte 196,65,113,196,76,65,22,2 // vpinsrw $0x2,0x16(%r9,%rax,2),%xmm1,%xmm9 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,26 // jb 4803 <_sk_load_rgb_u16_be_hsw+0x173> .byte 196,193,121,110,76,65,24 // vmovd 0x18(%r9,%rax,2),%xmm1 .byte 196,193,113,196,76,65,28,2 // vpinsrw $0x2,0x1c(%r9,%rax,2),%xmm1,%xmm1 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 117,10 // jne 4808 <_sk_load_rgb_u16_be_hsw+0x178> .byte 233,236,254,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> .byte 233,231,254,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> .byte 196,193,121,110,92,65,30 // vmovd 0x1e(%r9,%rax,2),%xmm3 .byte 196,65,97,196,92,65,34,2 // vpinsrw $0x2,0x22(%r9,%rax,2),%xmm3,%xmm11 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,20 // jb 4831 <_sk_load_rgb_u16_be_hsw+0x1a1> .byte 196,193,121,110,92,65,36 // vmovd 0x24(%r9,%rax,2),%xmm3 .byte 196,193,97,196,92,65,40,2 // vpinsrw $0x2,0x28(%r9,%rax,2),%xmm3,%xmm3 .byte 233,190,254,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> .byte 233,185,254,255,255 // jmpq 46ef <_sk_load_rgb_u16_be_hsw+0x5f> HIDDEN _sk_store_u16_be_hsw .globl _sk_store_u16_be_hsw FUNCTION(_sk_store_u16_be_hsw) _sk_store_u16_be_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 196,98,125,24,5,139,35,0,0 // vbroadcastss 0x238b(%rip),%ymm8 # 6be8 <_sk_clut_4D_hsw+0xc5e> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10 .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9 .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10 .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9 .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11 .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10 .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11 .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10 .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10 .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12 .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11 .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12 .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11 .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12 .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8 .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12 .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8 .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8 .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12 .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13 .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9 .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8 .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11 .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10 .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9 .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,31 // jne 4941 <_sk_store_u16_be_hsw+0x10b> .byte 196,65,120,17,28,65 // vmovups %xmm11,(%r9,%rax,2) .byte 196,65,120,17,84,65,16 // vmovups %xmm10,0x10(%r9,%rax,2) .byte 196,65,120,17,76,65,32 // vmovups %xmm9,0x20(%r9,%rax,2) .byte 196,65,122,127,68,65,48 // vmovdqu %xmm8,0x30(%r9,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,65 // vmovq %xmm11,(%r9,%rax,2) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 493d <_sk_store_u16_be_hsw+0x107> .byte 196,65,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%rax,2) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 493d <_sk_store_u16_be_hsw+0x107> .byte 196,65,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%rax,2) .byte 116,218 // je 493d <_sk_store_u16_be_hsw+0x107> .byte 196,65,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%rax,2) .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,205 // jb 493d <_sk_store_u16_be_hsw+0x107> .byte 196,65,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%rax,2) .byte 116,196 // je 493d <_sk_store_u16_be_hsw+0x107> .byte 196,65,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%rax,2) .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,183 // jb 493d <_sk_store_u16_be_hsw+0x107> .byte 196,65,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%rax,2) .byte 235,174 // jmp 493d <_sk_store_u16_be_hsw+0x107> HIDDEN _sk_load_f32_hsw .globl _sk_load_f32_hsw FUNCTION(_sk_load_f32_hsw) _sk_load_f32_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,135,128,0,0,0 // ja 4a1b <_sk_load_f32_hsw+0x8c> .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 77,99,210 // movslq %r10d,%r10 .byte 76,141,29,133,0,0,0 // lea 0x85(%rip),%r11 # 4a44 <_sk_load_f32_hsw+0xb5> .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,3,125,24,68,145,112,1 // vinsertf128 $0x1,0x70(%r9,%r10,4),%ymm0,%ymm8 .byte 196,131,125,24,92,145,96,1 // vinsertf128 $0x1,0x60(%r9,%r10,4),%ymm0,%ymm3 .byte 196,131,125,24,76,145,80,1 // vinsertf128 $0x1,0x50(%r9,%r10,4),%ymm0,%ymm1 .byte 196,131,125,24,84,145,64,1 // vinsertf128 $0x1,0x40(%r9,%r10,4),%ymm0,%ymm2 .byte 196,129,121,16,68,145,48 // vmovupd 0x30(%r9,%r10,4),%xmm0 .byte 196,195,125,13,192,12 // vblendpd $0xc,%ymm8,%ymm0,%ymm0 .byte 196,1,121,16,68,145,32 // vmovupd 0x20(%r9,%r10,4),%xmm8 .byte 196,99,61,13,203,12 // vblendpd $0xc,%ymm3,%ymm8,%ymm9 .byte 196,129,121,16,92,145,16 // vmovupd 0x10(%r9,%r10,4),%xmm3 .byte 196,99,101,13,209,12 // vblendpd $0xc,%ymm1,%ymm3,%ymm10 .byte 196,129,121,16,12,145 // vmovupd (%r9,%r10,4),%xmm1 .byte 196,227,117,13,202,12 // vblendpd $0xc,%ymm2,%ymm1,%ymm1 .byte 196,193,116,20,210 // vunpcklps %ymm10,%ymm1,%ymm2 .byte 196,193,116,21,218 // vunpckhps %ymm10,%ymm1,%ymm3 .byte 197,180,20,200 // vunpcklps %ymm0,%ymm9,%ymm1 .byte 197,52,21,192 // vunpckhps %ymm0,%ymm9,%ymm8 .byte 197,237,20,193 // vunpcklpd %ymm1,%ymm2,%ymm0 .byte 197,237,21,201 // vunpckhpd %ymm1,%ymm2,%ymm1 .byte 196,193,101,20,208 // vunpcklpd %ymm8,%ymm3,%ymm2 .byte 196,193,101,21,216 // vunpckhpd %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 144 // nop .byte 132,255 // test %bh,%bh .byte 255 // (bad) .byte 255,203 // dec %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 190,255,255,255,177 // mov $0xb1ffffff,%esi .byte 255 // (bad) .byte 255 // (bad) .byte 255,164,255,255,255,156,255 // jmpq *-0x630001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255,148,255,255,255,140,255 // callq *-0x730001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_f32_dst_hsw .globl _sk_load_f32_dst_hsw FUNCTION(_sk_load_f32_dst_hsw) _sk_load_f32_dst_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,135,128,0,0,0 // ja 4af0 <_sk_load_f32_dst_hsw+0x8c> .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 77,99,210 // movslq %r10d,%r10 .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 4b18 <_sk_load_f32_dst_hsw+0xb4> .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,3,125,24,68,145,112,1 // vinsertf128 $0x1,0x70(%r9,%r10,4),%ymm0,%ymm8 .byte 196,131,125,24,124,145,96,1 // vinsertf128 $0x1,0x60(%r9,%r10,4),%ymm0,%ymm7 .byte 196,131,125,24,108,145,80,1 // vinsertf128 $0x1,0x50(%r9,%r10,4),%ymm0,%ymm5 .byte 196,131,125,24,116,145,64,1 // vinsertf128 $0x1,0x40(%r9,%r10,4),%ymm0,%ymm6 .byte 196,129,121,16,100,145,48 // vmovupd 0x30(%r9,%r10,4),%xmm4 .byte 196,195,93,13,224,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm4 .byte 196,1,121,16,68,145,32 // vmovupd 0x20(%r9,%r10,4),%xmm8 .byte 196,99,61,13,207,12 // vblendpd $0xc,%ymm7,%ymm8,%ymm9 .byte 196,129,121,16,124,145,16 // vmovupd 0x10(%r9,%r10,4),%xmm7 .byte 196,99,69,13,213,12 // vblendpd $0xc,%ymm5,%ymm7,%ymm10 .byte 196,129,121,16,44,145 // vmovupd (%r9,%r10,4),%xmm5 .byte 196,227,85,13,238,12 // vblendpd $0xc,%ymm6,%ymm5,%ymm5 .byte 196,193,84,20,242 // vunpcklps %ymm10,%ymm5,%ymm6 .byte 196,193,84,21,250 // vunpckhps %ymm10,%ymm5,%ymm7 .byte 197,180,20,236 // vunpcklps %ymm4,%ymm9,%ymm5 .byte 197,52,21,196 // vunpckhps %ymm4,%ymm9,%ymm8 .byte 197,205,20,229 // vunpcklpd %ymm5,%ymm6,%ymm4 .byte 197,205,21,237 // vunpckhpd %ymm5,%ymm6,%ymm5 .byte 196,193,69,20,240 // vunpcklpd %ymm8,%ymm7,%ymm6 .byte 196,193,69,21,248 // vunpckhpd %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 133,255 // test %edi,%edi .byte 255 // (bad) .byte 255,204 // dec %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 191,255,255,255,178 // mov $0xb2ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255,149,255,255,255,141 // callq *-0x72000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_store_f32_hsw .globl _sk_store_f32_hsw FUNCTION(_sk_store_f32_hsw) _sk_store_f32_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 197,124,20,193 // vunpcklps %ymm1,%ymm0,%ymm8 .byte 197,124,21,217 // vunpckhps %ymm1,%ymm0,%ymm11 .byte 197,108,20,203 // vunpcklps %ymm3,%ymm2,%ymm9 .byte 197,108,21,227 // vunpckhps %ymm3,%ymm2,%ymm12 .byte 196,65,61,20,209 // vunpcklpd %ymm9,%ymm8,%ymm10 .byte 196,65,61,21,201 // vunpckhpd %ymm9,%ymm8,%ymm9 .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8 .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11 .byte 77,133,192 // test %r8,%r8 .byte 117,55 // jne 4bb7 <_sk_store_f32_hsw+0x7f> .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12 .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13 .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9 .byte 196,67,61,6,195,49 // vperm2f128 $0x31,%ymm11,%ymm8,%ymm8 .byte 196,65,125,17,36,129 // vmovupd %ymm12,(%r9,%rax,4) .byte 196,65,125,17,108,129,32 // vmovupd %ymm13,0x20(%r9,%rax,4) .byte 196,65,125,17,76,129,64 // vmovupd %ymm9,0x40(%r9,%rax,4) .byte 196,65,125,17,68,129,96 // vmovupd %ymm8,0x60(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,17,20,129 // vmovupd %xmm10,(%r9,%rax,4) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 4bb3 <_sk_store_f32_hsw+0x7b> .byte 196,65,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%rax,4) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 4bb3 <_sk_store_f32_hsw+0x7b> .byte 196,65,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%rax,4) .byte 116,218 // je 4bb3 <_sk_store_f32_hsw+0x7b> .byte 196,65,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%rax,4) .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,205 // jb 4bb3 <_sk_store_f32_hsw+0x7b> .byte 196,67,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%rax,4) .byte 116,195 // je 4bb3 <_sk_store_f32_hsw+0x7b> .byte 196,67,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%rax,4) .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,181 // jb 4bb3 <_sk_store_f32_hsw+0x7b> .byte 196,67,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%rax,4) .byte 235,171 // jmp 4bb3 <_sk_store_f32_hsw+0x7b> HIDDEN _sk_clamp_x_hsw .globl _sk_clamp_x_hsw FUNCTION(_sk_clamp_x_hsw) _sk_clamp_x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 .byte 196,98,125,88,0 // vpbroadcastd (%rax),%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8 .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_y_hsw .globl _sk_clamp_y_hsw FUNCTION(_sk_clamp_y_hsw) _sk_clamp_y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 .byte 196,98,125,88,0 // vpbroadcastd (%rax),%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_hsw .globl _sk_repeat_x_hsw FUNCTION(_sk_repeat_x_hsw) _sk_repeat_x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,98,53,172,192 // vfnmadd213ps %ymm0,%ymm9,%ymm8 .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,65,53,254,192 // vpaddd %ymm8,%ymm9,%ymm8 .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_y_hsw .globl _sk_repeat_y_hsw FUNCTION(_sk_repeat_y_hsw) _sk_repeat_y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8 .byte 197,60,89,193 // vmulps %ymm1,%ymm8,%ymm8 .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,98,53,172,193 // vfnmadd213ps %ymm1,%ymm9,%ymm8 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,65,53,254,192 // vpaddd %ymm8,%ymm9,%ymm8 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_hsw .globl _sk_mirror_x_hsw FUNCTION(_sk_mirror_x_hsw) _sk_mirror_x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,122,16,0 // vmovss (%rax),%xmm8 .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9 .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10 .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11 .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0 .byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8 .byte 197,178,89,5,7,31,0,0 // vmulss 0x1f07(%rip),%xmm9,%xmm0 # 6bec <_sk_clut_4D_hsw+0xc62> .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0 .byte 196,194,61,172,195 // vfnmadd213ps %ymm11,%ymm8,%ymm0 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,65,45,254,192 // vpaddd %ymm8,%ymm10,%ymm8 .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_y_hsw .globl _sk_mirror_y_hsw FUNCTION(_sk_mirror_y_hsw) _sk_mirror_y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,122,16,0 // vmovss (%rax),%xmm8 .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9 .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10 .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11 .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1 .byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8 .byte 197,178,89,13,167,30,0,0 // vmulss 0x1ea7(%rip),%xmm9,%xmm1 # 6bf0 <_sk_clut_4D_hsw+0xc66> .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1 .byte 196,194,61,172,203 // vfnmadd213ps %ymm11,%ymm8,%ymm1 .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,201 // vsubps %ymm1,%ymm8,%ymm9 .byte 197,180,84,201 // vandps %ymm1,%ymm9,%ymm1 .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,65,45,254,192 // vpaddd %ymm8,%ymm10,%ymm8 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_x_1_hsw .globl _sk_clamp_x_1_hsw FUNCTION(_sk_clamp_x_1_hsw) _sk_clamp_x_1_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 .byte 196,98,125,24,5,92,30,0,0 // vbroadcastss 0x1e5c(%rip),%ymm8 # 6bf4 <_sk_clut_4D_hsw+0xc6a> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_1_hsw .globl _sk_repeat_x_1_hsw FUNCTION(_sk_repeat_x_1_hsw) _sk_repeat_x_1_hsw: .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8 .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_1_hsw .globl _sk_mirror_x_1_hsw FUNCTION(_sk_mirror_x_1_hsw) _sk_mirror_x_1_hsw: .byte 196,98,125,24,5,63,30,0,0 // vbroadcastss 0x1e3f(%rip),%ymm8 # 6bf8 <_sk_clut_4D_hsw+0xc6e> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,13,53,30,0,0 // vbroadcastss 0x1e35(%rip),%ymm9 # 6bfc <_sk_clut_4D_hsw+0xc72> .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9 .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8 .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_luminance_to_alpha_hsw .globl _sk_luminance_to_alpha_hsw FUNCTION(_sk_luminance_to_alpha_hsw) _sk_luminance_to_alpha_hsw: .byte 196,226,125,24,29,5,30,0,0 // vbroadcastss 0x1e05(%rip),%ymm3 # 6c00 <_sk_clut_4D_hsw+0xc76> .byte 196,98,125,24,5,0,30,0,0 // vbroadcastss 0x1e00(%rip),%ymm8 # 6c04 <_sk_clut_4D_hsw+0xc7a> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1 .byte 196,226,125,24,29,241,29,0,0 // vbroadcastss 0x1df1(%rip),%ymm3 # 6c08 <_sk_clut_4D_hsw+0xc7e> .byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_translate_hsw .globl _sk_matrix_translate_hsw FUNCTION(_sk_matrix_translate_hsw) _sk_matrix_translate_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_scale_translate_hsw .globl _sk_matrix_scale_translate_hsw FUNCTION(_sk_matrix_scale_translate_hsw) _sk_matrix_scale_translate_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,194,61,168,193 // vfmadd213ps %ymm9,%ymm8,%ymm0 .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 196,194,61,168,201 // vfmadd213ps %ymm9,%ymm8,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_2x3_hsw .globl _sk_matrix_2x3_hsw FUNCTION(_sk_matrix_2x3_hsw) _sk_matrix_2x3_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10 .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8 .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm11 .byte 196,98,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm9 .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9 .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_3x4_hsw .globl _sk_matrix_3x4_hsw FUNCTION(_sk_matrix_3x4_hsw) _sk_matrix_3x4_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10 .byte 196,98,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm11 .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8 .byte 196,66,109,184,195 // vfmadd231ps %ymm11,%ymm2,%ymm8 .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8 .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm11 .byte 196,98,125,24,96,28 // vbroadcastss 0x1c(%rax),%ymm12 .byte 196,98,125,24,72,40 // vbroadcastss 0x28(%rax),%ymm9 .byte 196,66,109,184,204 // vfmadd231ps %ymm12,%ymm2,%ymm9 .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9 .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 196,98,125,24,96,20 // vbroadcastss 0x14(%rax),%ymm12 .byte 196,98,125,24,104,32 // vbroadcastss 0x20(%rax),%ymm13 .byte 196,98,125,24,80,44 // vbroadcastss 0x2c(%rax),%ymm10 .byte 196,66,109,184,213 // vfmadd231ps %ymm13,%ymm2,%ymm10 .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10 .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 197,124,41,210 // vmovaps %ymm10,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x5_hsw .globl _sk_matrix_4x5_hsw FUNCTION(_sk_matrix_4x5_hsw) _sk_matrix_4x5_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10 .byte 196,98,125,24,88,32 // vbroadcastss 0x20(%rax),%ymm11 .byte 196,98,125,24,96,48 // vbroadcastss 0x30(%rax),%ymm12 .byte 196,98,125,24,64,64 // vbroadcastss 0x40(%rax),%ymm8 .byte 196,66,101,184,196 // vfmadd231ps %ymm12,%ymm3,%ymm8 .byte 196,66,109,184,195 // vfmadd231ps %ymm11,%ymm2,%ymm8 .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8 .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11 .byte 196,98,125,24,96,36 // vbroadcastss 0x24(%rax),%ymm12 .byte 196,98,125,24,104,52 // vbroadcastss 0x34(%rax),%ymm13 .byte 196,98,125,24,72,68 // vbroadcastss 0x44(%rax),%ymm9 .byte 196,66,101,184,205 // vfmadd231ps %ymm13,%ymm3,%ymm9 .byte 196,66,109,184,204 // vfmadd231ps %ymm12,%ymm2,%ymm9 .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9 .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 196,98,125,24,96,24 // vbroadcastss 0x18(%rax),%ymm12 .byte 196,98,125,24,104,40 // vbroadcastss 0x28(%rax),%ymm13 .byte 196,98,125,24,112,56 // vbroadcastss 0x38(%rax),%ymm14 .byte 196,98,125,24,80,72 // vbroadcastss 0x48(%rax),%ymm10 .byte 196,66,101,184,214 // vfmadd231ps %ymm14,%ymm3,%ymm10 .byte 196,66,109,184,213 // vfmadd231ps %ymm13,%ymm2,%ymm10 .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10 .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10 .byte 196,98,125,24,96,12 // vbroadcastss 0xc(%rax),%ymm12 .byte 196,98,125,24,104,28 // vbroadcastss 0x1c(%rax),%ymm13 .byte 196,98,125,24,112,44 // vbroadcastss 0x2c(%rax),%ymm14 .byte 196,98,125,24,120,60 // vbroadcastss 0x3c(%rax),%ymm15 .byte 196,98,125,24,88,76 // vbroadcastss 0x4c(%rax),%ymm11 .byte 196,66,101,184,223 // vfmadd231ps %ymm15,%ymm3,%ymm11 .byte 196,66,109,184,222 // vfmadd231ps %ymm14,%ymm2,%ymm11 .byte 196,66,117,184,221 // vfmadd231ps %ymm13,%ymm1,%ymm11 .byte 196,66,125,184,220 // vfmadd231ps %ymm12,%ymm0,%ymm11 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 197,124,41,210 // vmovaps %ymm10,%ymm2 .byte 197,124,41,219 // vmovaps %ymm11,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x3_hsw .globl _sk_matrix_4x3_hsw FUNCTION(_sk_matrix_4x3_hsw) _sk_matrix_4x3_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2 .byte 196,226,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm3 .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8 .byte 196,98,117,184,195 // vfmadd231ps %ymm3,%ymm1,%ymm8 .byte 196,98,125,184,194 // vfmadd231ps %ymm2,%ymm0,%ymm8 .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2 .byte 196,226,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm3 .byte 196,98,125,24,72,36 // vbroadcastss 0x24(%rax),%ymm9 .byte 196,98,117,184,203 // vfmadd231ps %ymm3,%ymm1,%ymm9 .byte 196,98,125,184,202 // vfmadd231ps %ymm2,%ymm0,%ymm9 .byte 196,226,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm3 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,226,125,24,80,40 // vbroadcastss 0x28(%rax),%ymm2 .byte 196,194,117,184,210 // vfmadd231ps %ymm10,%ymm1,%ymm2 .byte 196,226,125,184,211 // vfmadd231ps %ymm3,%ymm0,%ymm2 .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10 .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11 .byte 196,226,125,24,88,44 // vbroadcastss 0x2c(%rax),%ymm3 .byte 196,194,117,184,219 // vfmadd231ps %ymm11,%ymm1,%ymm3 .byte 196,194,125,184,218 // vfmadd231ps %ymm10,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_perspective_hsw .globl _sk_matrix_perspective_hsw FUNCTION(_sk_matrix_perspective_hsw) _sk_matrix_perspective_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10 .byte 196,66,117,184,209 // vfmadd231ps %ymm9,%ymm1,%ymm10 .byte 196,66,125,184,208 // vfmadd231ps %ymm8,%ymm0,%ymm10 .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8 .byte 196,98,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm9 .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11 .byte 196,66,117,184,217 // vfmadd231ps %ymm9,%ymm1,%ymm11 .byte 196,66,125,184,216 // vfmadd231ps %ymm8,%ymm0,%ymm11 .byte 196,98,125,24,64,24 // vbroadcastss 0x18(%rax),%ymm8 .byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9 .byte 196,98,125,24,96,32 // vbroadcastss 0x20(%rax),%ymm12 .byte 196,66,117,184,225 // vfmadd231ps %ymm9,%ymm1,%ymm12 .byte 196,66,125,184,224 // vfmadd231ps %ymm8,%ymm0,%ymm12 .byte 196,193,124,83,204 // vrcpps %ymm12,%ymm1 .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_gradient_hsw .globl _sk_evenly_spaced_gradient_hsw FUNCTION(_sk_evenly_spaced_gradient_hsw) _sk_evenly_spaced_gradient_hsw: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,16 // mov (%rax),%r10 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 77,137,211 // mov %r10,%r11 .byte 73,255,203 // dec %r11 .byte 120,7 // js 5110 <_sk_evenly_spaced_gradient_hsw+0x19> .byte 196,193,242,42,203 // vcvtsi2ss %r11,%xmm1,%xmm1 .byte 235,22 // jmp 5126 <_sk_evenly_spaced_gradient_hsw+0x2f> .byte 76,137,219 // mov %r11,%rbx .byte 72,209,235 // shr %rbx .byte 65,131,227,1 // and $0x1,%r11d .byte 73,9,219 // or %rbx,%r11 .byte 196,193,242,42,203 // vcvtsi2ss %r11,%xmm1,%xmm1 .byte 197,242,88,201 // vaddss %xmm1,%xmm1,%xmm1 .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1 .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,126,91,217 // vcvttps2dq %ymm1,%ymm11 .byte 73,131,250,8 // cmp $0x8,%r10 .byte 119,70 // ja 517f <_sk_evenly_spaced_gradient_hsw+0x88> .byte 196,66,37,22,1 // vpermps (%r9),%ymm11,%ymm8 .byte 72,139,88,40 // mov 0x28(%rax),%rbx .byte 196,98,37,22,11 // vpermps (%rbx),%ymm11,%ymm9 .byte 72,139,88,16 // mov 0x10(%rax),%rbx .byte 76,139,72,24 // mov 0x18(%rax),%r9 .byte 196,226,37,22,11 // vpermps (%rbx),%ymm11,%ymm1 .byte 72,139,88,48 // mov 0x30(%rax),%rbx .byte 196,98,37,22,19 // vpermps (%rbx),%ymm11,%ymm10 .byte 196,194,37,22,17 // vpermps (%r9),%ymm11,%ymm2 .byte 72,139,88,56 // mov 0x38(%rax),%rbx .byte 196,98,37,22,35 // vpermps (%rbx),%ymm11,%ymm12 .byte 72,139,88,32 // mov 0x20(%rax),%rbx .byte 196,226,37,22,27 // vpermps (%rbx),%ymm11,%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,98,37,22,40 // vpermps (%rax),%ymm11,%ymm13 .byte 235,110 // jmp 51ed <_sk_evenly_spaced_gradient_hsw+0xf6> .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,2,117,146,4,153 // vgatherdps %ymm1,(%r9,%ymm11,4),%ymm8 .byte 72,139,88,40 // mov 0x28(%rax),%rbx .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,34,117,146,12,155 // vgatherdps %ymm1,(%rbx,%ymm11,4),%ymm9 .byte 72,139,88,16 // mov 0x10(%rax),%rbx .byte 76,139,72,24 // mov 0x18(%rax),%r9 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,162,109,146,12,155 // vgatherdps %ymm2,(%rbx,%ymm11,4),%ymm1 .byte 72,139,88,48 // mov 0x30(%rax),%rbx .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,34,109,146,20,155 // vgatherdps %ymm2,(%rbx,%ymm11,4),%ymm10 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,130,101,146,20,153 // vgatherdps %ymm3,(%r9,%ymm11,4),%ymm2 .byte 72,139,88,56 // mov 0x38(%rax),%rbx .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,34,101,146,36,155 // vgatherdps %ymm3,(%rbx,%ymm11,4),%ymm12 .byte 72,139,88,32 // mov 0x20(%rax),%rbx .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13 .byte 196,162,21,146,28,155 // vgatherdps %ymm13,(%rbx,%ymm11,4),%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,34,13,146,44,152 // vgatherdps %ymm14,(%rax,%ymm11,4),%ymm13 .byte 196,66,125,168,193 // vfmadd213ps %ymm9,%ymm0,%ymm8 .byte 196,194,125,168,202 // vfmadd213ps %ymm10,%ymm0,%ymm1 .byte 196,194,125,168,212 // vfmadd213ps %ymm12,%ymm0,%ymm2 .byte 196,194,125,168,221 // vfmadd213ps %ymm13,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_gauss_a_to_rgba_hsw .globl _sk_gauss_a_to_rgba_hsw FUNCTION(_sk_gauss_a_to_rgba_hsw) _sk_gauss_a_to_rgba_hsw: .byte 196,226,125,24,5,249,25,0,0 // vbroadcastss 0x19f9(%rip),%ymm0 # 6c0c <_sk_clut_4D_hsw+0xc82> .byte 196,226,125,24,13,244,25,0,0 // vbroadcastss 0x19f4(%rip),%ymm1 # 6c10 <_sk_clut_4D_hsw+0xc86> .byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1 .byte 196,226,125,24,5,234,25,0,0 // vbroadcastss 0x19ea(%rip),%ymm0 # 6c14 <_sk_clut_4D_hsw+0xc8a> .byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0 .byte 196,226,125,24,13,224,25,0,0 // vbroadcastss 0x19e0(%rip),%ymm1 # 6c18 <_sk_clut_4D_hsw+0xc8e> .byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1 .byte 196,226,125,24,5,214,25,0,0 // vbroadcastss 0x19d6(%rip),%ymm0 # 6c1c <_sk_clut_4D_hsw+0xc92> .byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_gradient_hsw .globl _sk_gradient_hsw FUNCTION(_sk_gradient_hsw) _sk_gradient_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 73,131,249,1 // cmp $0x1,%r9 .byte 15,134,180,0,0,0 // jbe 531e <_sk_gradient_hsw+0xc3> .byte 76,139,80,72 // mov 0x48(%rax),%r10 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 65,187,1,0,0,0 // mov $0x1,%r11d .byte 196,226,125,24,21,159,25,0,0 // vbroadcastss 0x199f(%rip),%ymm2 # 6c20 <_sk_clut_4D_hsw+0xc96> .byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9 .byte 196,130,125,24,28,154 // vbroadcastss (%r10,%r11,4),%ymm3 .byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3 .byte 196,227,117,74,218,48 // vblendvps %ymm3,%ymm2,%ymm1,%ymm3 .byte 196,65,101,254,201 // vpaddd %ymm9,%ymm3,%ymm9 .byte 73,255,195 // inc %r11 .byte 77,57,217 // cmp %r11,%r9 .byte 117,226 // jne 5286 <_sk_gradient_hsw+0x2b> .byte 76,139,80,8 // mov 0x8(%rax),%r10 .byte 73,131,249,8 // cmp $0x8,%r9 .byte 118,121 // jbe 5327 <_sk_gradient_hsw+0xcc> .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,2,117,146,4,138 // vgatherdps %ymm1,(%r10,%ymm9,4),%ymm8 .byte 76,139,72,40 // mov 0x28(%rax),%r9 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,2,117,146,20,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm10 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,130,109,146,12,137 // vgatherdps %ymm2,(%r9,%ymm9,4),%ymm1 .byte 76,139,72,48 // mov 0x30(%rax),%r9 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,2,109,146,28,137 // vgatherdps %ymm2,(%r9,%ymm9,4),%ymm11 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,130,101,146,20,138 // vgatherdps %ymm3,(%r10,%ymm9,4),%ymm2 .byte 76,139,72,56 // mov 0x38(%rax),%r9 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,2,101,146,36,137 // vgatherdps %ymm3,(%r9,%ymm9,4),%ymm12 .byte 76,139,72,32 // mov 0x20(%rax),%r9 .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13 .byte 196,130,21,146,28,137 // vgatherdps %ymm13,(%r9,%ymm9,4),%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13 .byte 235,77 // jmp 536b <_sk_gradient_hsw+0x110> .byte 76,139,80,8 // mov 0x8(%rax),%r10 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 196,66,53,22,2 // vpermps (%r10),%ymm9,%ymm8 .byte 76,139,72,40 // mov 0x28(%rax),%r9 .byte 196,66,53,22,17 // vpermps (%r9),%ymm9,%ymm10 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 196,194,53,22,9 // vpermps (%r9),%ymm9,%ymm1 .byte 76,139,72,48 // mov 0x30(%rax),%r9 .byte 196,66,53,22,25 // vpermps (%r9),%ymm9,%ymm11 .byte 196,194,53,22,18 // vpermps (%r10),%ymm9,%ymm2 .byte 76,139,72,56 // mov 0x38(%rax),%r9 .byte 196,66,53,22,33 // vpermps (%r9),%ymm9,%ymm12 .byte 76,139,72,32 // mov 0x20(%rax),%r9 .byte 196,194,53,22,25 // vpermps (%r9),%ymm9,%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,98,53,22,40 // vpermps (%rax),%ymm9,%ymm13 .byte 196,66,125,168,194 // vfmadd213ps %ymm10,%ymm0,%ymm8 .byte 196,194,125,168,203 // vfmadd213ps %ymm11,%ymm0,%ymm1 .byte 196,194,125,168,212 // vfmadd213ps %ymm12,%ymm0,%ymm2 .byte 196,194,125,168,221 // vfmadd213ps %ymm13,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_2_stop_gradient_hsw .globl _sk_evenly_spaced_2_stop_gradient_hsw FUNCTION(_sk_evenly_spaced_2_stop_gradient_hsw) _sk_evenly_spaced_2_stop_gradient_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1 .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,98,125,184,193 // vfmadd231ps %ymm1,%ymm0,%ymm8 .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2 .byte 196,226,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm1 .byte 196,226,125,184,202 // vfmadd231ps %ymm2,%ymm0,%ymm1 .byte 196,226,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm3 .byte 196,226,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm2 .byte 196,226,125,184,211 // vfmadd231ps %ymm3,%ymm0,%ymm2 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,226,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm3 .byte 196,194,125,184,217 // vfmadd231ps %ymm9,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_unit_angle_hsw .globl _sk_xy_to_unit_angle_hsw FUNCTION(_sk_xy_to_unit_angle_hsw) _sk_xy_to_unit_angle_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,52,84,200 // vandps %ymm0,%ymm9,%ymm9 .byte 197,60,92,209 // vsubps %ymm1,%ymm8,%ymm10 .byte 197,44,84,209 // vandps %ymm1,%ymm10,%ymm10 .byte 196,65,52,93,218 // vminps %ymm10,%ymm9,%ymm11 .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12 .byte 196,98,125,24,45,30,24,0,0 // vbroadcastss 0x181e(%rip),%ymm13 # 6c24 <_sk_clut_4D_hsw+0xc9a> .byte 196,98,125,24,53,25,24,0,0 // vbroadcastss 0x1819(%rip),%ymm14 # 6c28 <_sk_clut_4D_hsw+0xc9e> .byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14 .byte 196,98,125,24,45,15,24,0,0 // vbroadcastss 0x180f(%rip),%ymm13 # 6c2c <_sk_clut_4D_hsw+0xca2> .byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13 .byte 196,98,125,24,53,5,24,0,0 // vbroadcastss 0x1805(%rip),%ymm14 # 6c30 <_sk_clut_4D_hsw+0xca6> .byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14 .byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11 .byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,21,240,23,0,0 // vbroadcastss 0x17f0(%rip),%ymm10 # 6c34 <_sk_clut_4D_hsw+0xcaa> .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10 .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9 .byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,21,218,23,0,0 // vbroadcastss 0x17da(%rip),%ymm10 # 6c38 <_sk_clut_4D_hsw+0xcae> .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9 .byte 196,98,125,24,21,196,23,0,0 // vbroadcastss 0x17c4(%rip),%ymm10 # 6c3c <_sk_clut_4D_hsw+0xcb2> .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0 .byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9 .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_radius_hsw .globl _sk_xy_to_radius_hsw FUNCTION(_sk_xy_to_radius_hsw) _sk_xy_to_radius_hsw: .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8 .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8 .byte 196,193,124,81,192 // vsqrtps %ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_max_hsw .globl _sk_xy_to_2pt_conical_quadratic_max_hsw FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_hsw) _sk_xy_to_2pt_conical_quadratic_max_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8 .byte 197,122,16,72,40 // vmovss 0x28(%rax),%xmm9 .byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10 .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 .byte 196,98,125,24,29,120,23,0,0 // vbroadcastss 0x1778(%rip),%ymm11 # 6c40 <_sk_clut_4D_hsw+0xcb6> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 .byte 196,98,125,24,13,87,23,0,0 // vbroadcastss 0x1757(%rip),%ymm9 # 6c44 <_sk_clut_4D_hsw+0xcba> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8 .byte 196,98,125,24,13,58,23,0,0 // vbroadcastss 0x173a(%rip),%ymm9 # 6c48 <_sk_clut_4D_hsw+0xcbe> .byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 .byte 196,98,125,24,29,43,23,0,0 // vbroadcastss 0x172b(%rip),%ymm11 # 6c4c <_sk_clut_4D_hsw+0xcc2> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,172,95,192 // vmaxps %ymm0,%ymm10,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_min_hsw .globl _sk_xy_to_2pt_conical_quadratic_min_hsw FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_hsw) _sk_xy_to_2pt_conical_quadratic_min_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8 .byte 197,122,16,72,40 // vmovss 0x28(%rax),%xmm9 .byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10 .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 .byte 196,98,125,24,29,240,22,0,0 // vbroadcastss 0x16f0(%rip),%ymm11 # 6c50 <_sk_clut_4D_hsw+0xcc6> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 .byte 196,98,125,24,13,207,22,0,0 // vbroadcastss 0x16cf(%rip),%ymm9 # 6c54 <_sk_clut_4D_hsw+0xcca> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8 .byte 196,98,125,24,13,178,22,0,0 // vbroadcastss 0x16b2(%rip),%ymm9 # 6c58 <_sk_clut_4D_hsw+0xcce> .byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 .byte 196,98,125,24,29,163,22,0,0 // vbroadcastss 0x16a3(%rip),%ymm11 # 6c5c <_sk_clut_4D_hsw+0xcd2> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,172,93,192 // vminps %ymm0,%ymm10,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_linear_hsw .globl _sk_xy_to_2pt_conical_linear_hsw FUNCTION(_sk_xy_to_2pt_conical_linear_hsw) _sk_xy_to_2pt_conical_linear_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,122,16,64,40 // vmovss 0x28(%rax),%xmm8 .byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9 .byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 .byte 196,98,125,24,21,110,22,0,0 // vbroadcastss 0x166e(%rip),%ymm10 # 6c60 <_sk_clut_4D_hsw+0xcd6> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10 .byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10 .byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0 .byte 196,98,125,24,5,77,22,0,0 // vbroadcastss 0x164d(%rip),%ymm8 # 6c64 <_sk_clut_4D_hsw+0xcda> .byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0 .byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mask_2pt_conical_degenerates_hsw .globl _sk_mask_2pt_conical_degenerates_hsw FUNCTION(_sk_mask_2pt_conical_degenerates_hsw) _sk_mask_2pt_conical_degenerates_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,44 // vbroadcastss 0x2c(%rax),%ymm8 .byte 196,98,125,24,72,40 // vbroadcastss 0x28(%rax),%ymm9 .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,60,194,201,2 // vcmpleps %ymm9,%ymm8,%ymm9 .byte 196,65,124,194,192,7 // vcmpordps %ymm8,%ymm0,%ymm8 .byte 196,65,52,84,192 // vandps %ymm8,%ymm9,%ymm8 .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_apply_vector_mask_hsw .globl _sk_apply_vector_mask_hsw FUNCTION(_sk_apply_vector_mask_hsw) _sk_apply_vector_mask_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,16,0 // vmovups (%rax),%ymm8 .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0 .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1 .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2 .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_save_xy_hsw .globl _sk_save_xy_hsw FUNCTION(_sk_save_xy_hsw) _sk_save_xy_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,237,21,0,0 // vbroadcastss 0x15ed(%rip),%ymm8 # 6c68 <_sk_clut_4D_hsw+0xcde> .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9 .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8 .byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10 .byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8 .byte 197,252,17,0 // vmovups %ymm0,(%rax) .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax) .byte 197,124,17,72,64 // vmovups %ymm9,0x40(%rax) .byte 197,124,17,64,96 // vmovups %ymm8,0x60(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_accumulate_hsw .globl _sk_accumulate_hsw FUNCTION(_sk_accumulate_hsw) _sk_accumulate_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 .byte 197,60,89,128,160,0,0,0 // vmulps 0xa0(%rax),%ymm8,%ymm8 .byte 196,226,61,184,224 // vfmadd231ps %ymm0,%ymm8,%ymm4 .byte 196,226,61,184,233 // vfmadd231ps %ymm1,%ymm8,%ymm5 .byte 196,226,61,184,242 // vfmadd231ps %ymm2,%ymm8,%ymm6 .byte 196,98,101,168,199 // vfmadd213ps %ymm7,%ymm3,%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,199 // vmovaps %ymm8,%ymm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_nx_hsw .globl _sk_bilinear_nx_hsw FUNCTION(_sk_bilinear_nx_hsw) _sk_bilinear_nx_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,129,21,0,0 // vbroadcastss 0x1581(%rip),%ymm0 # 6c6c <_sk_clut_4D_hsw+0xce2> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 196,98,125,24,5,120,21,0,0 // vbroadcastss 0x1578(%rip),%ymm8 # 6c70 <_sk_clut_4D_hsw+0xce6> .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_px_hsw .globl _sk_bilinear_px_hsw FUNCTION(_sk_bilinear_px_hsw) _sk_bilinear_px_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,96,21,0,0 // vbroadcastss 0x1560(%rip),%ymm0 # 6c74 <_sk_clut_4D_hsw+0xcea> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_ny_hsw .globl _sk_bilinear_ny_hsw FUNCTION(_sk_bilinear_ny_hsw) _sk_bilinear_ny_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,68,21,0,0 // vbroadcastss 0x1544(%rip),%ymm1 # 6c78 <_sk_clut_4D_hsw+0xcee> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 196,98,125,24,5,58,21,0,0 // vbroadcastss 0x153a(%rip),%ymm8 # 6c7c <_sk_clut_4D_hsw+0xcf2> .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_py_hsw .globl _sk_bilinear_py_hsw FUNCTION(_sk_bilinear_py_hsw) _sk_bilinear_py_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,34,21,0,0 // vbroadcastss 0x1522(%rip),%ymm1 # 6c80 <_sk_clut_4D_hsw+0xcf6> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3x_hsw .globl _sk_bicubic_n3x_hsw FUNCTION(_sk_bicubic_n3x_hsw) _sk_bicubic_n3x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,5,21,0,0 // vbroadcastss 0x1505(%rip),%ymm0 # 6c84 <_sk_clut_4D_hsw+0xcfa> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 196,98,125,24,5,252,20,0,0 // vbroadcastss 0x14fc(%rip),%ymm8 # 6c88 <_sk_clut_4D_hsw+0xcfe> .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,237,20,0,0 // vbroadcastss 0x14ed(%rip),%ymm10 # 6c8c <_sk_clut_4D_hsw+0xd02> .byte 196,98,125,24,29,232,20,0,0 // vbroadcastss 0x14e8(%rip),%ymm11 # 6c90 <_sk_clut_4D_hsw+0xd06> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1x_hsw .globl _sk_bicubic_n1x_hsw FUNCTION(_sk_bicubic_n1x_hsw) _sk_bicubic_n1x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,203,20,0,0 // vbroadcastss 0x14cb(%rip),%ymm0 # 6c94 <_sk_clut_4D_hsw+0xd0a> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 196,98,125,24,5,194,20,0,0 // vbroadcastss 0x14c2(%rip),%ymm8 # 6c98 <_sk_clut_4D_hsw+0xd0e> .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8 .byte 196,98,125,24,13,184,20,0,0 // vbroadcastss 0x14b8(%rip),%ymm9 # 6c9c <_sk_clut_4D_hsw+0xd12> .byte 196,98,125,24,21,179,20,0,0 // vbroadcastss 0x14b3(%rip),%ymm10 # 6ca0 <_sk_clut_4D_hsw+0xd16> .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10 .byte 196,98,125,24,13,169,20,0,0 // vbroadcastss 0x14a9(%rip),%ymm9 # 6ca4 <_sk_clut_4D_hsw+0xd1a> .byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9 .byte 196,98,125,24,21,159,20,0,0 // vbroadcastss 0x149f(%rip),%ymm10 # 6ca8 <_sk_clut_4D_hsw+0xd1e> .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10 .byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1x_hsw .globl _sk_bicubic_p1x_hsw FUNCTION(_sk_bicubic_p1x_hsw) _sk_bicubic_p1x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,135,20,0,0 // vbroadcastss 0x1487(%rip),%ymm8 # 6cac <_sk_clut_4D_hsw+0xd22> .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0 .byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9 .byte 196,98,125,24,21,121,20,0,0 // vbroadcastss 0x1479(%rip),%ymm10 # 6cb0 <_sk_clut_4D_hsw+0xd26> .byte 196,98,125,24,29,116,20,0,0 // vbroadcastss 0x1474(%rip),%ymm11 # 6cb4 <_sk_clut_4D_hsw+0xd2a> .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11 .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11 .byte 196,98,125,24,5,101,20,0,0 // vbroadcastss 0x1465(%rip),%ymm8 # 6cb8 <_sk_clut_4D_hsw+0xd2e> .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3x_hsw .globl _sk_bicubic_p3x_hsw FUNCTION(_sk_bicubic_p3x_hsw) _sk_bicubic_p3x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,77,20,0,0 // vbroadcastss 0x144d(%rip),%ymm0 # 6cbc <_sk_clut_4D_hsw+0xd32> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,58,20,0,0 // vbroadcastss 0x143a(%rip),%ymm10 # 6cc0 <_sk_clut_4D_hsw+0xd36> .byte 196,98,125,24,29,53,20,0,0 // vbroadcastss 0x1435(%rip),%ymm11 # 6cc4 <_sk_clut_4D_hsw+0xd3a> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3y_hsw .globl _sk_bicubic_n3y_hsw FUNCTION(_sk_bicubic_n3y_hsw) _sk_bicubic_n3y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,24,20,0,0 // vbroadcastss 0x1418(%rip),%ymm1 # 6cc8 <_sk_clut_4D_hsw+0xd3e> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 196,98,125,24,5,14,20,0,0 // vbroadcastss 0x140e(%rip),%ymm8 # 6ccc <_sk_clut_4D_hsw+0xd42> .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,255,19,0,0 // vbroadcastss 0x13ff(%rip),%ymm10 # 6cd0 <_sk_clut_4D_hsw+0xd46> .byte 196,98,125,24,29,250,19,0,0 // vbroadcastss 0x13fa(%rip),%ymm11 # 6cd4 <_sk_clut_4D_hsw+0xd4a> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1y_hsw .globl _sk_bicubic_n1y_hsw FUNCTION(_sk_bicubic_n1y_hsw) _sk_bicubic_n1y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,221,19,0,0 // vbroadcastss 0x13dd(%rip),%ymm1 # 6cd8 <_sk_clut_4D_hsw+0xd4e> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 196,98,125,24,5,211,19,0,0 // vbroadcastss 0x13d3(%rip),%ymm8 # 6cdc <_sk_clut_4D_hsw+0xd52> .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8 .byte 196,98,125,24,13,201,19,0,0 // vbroadcastss 0x13c9(%rip),%ymm9 # 6ce0 <_sk_clut_4D_hsw+0xd56> .byte 196,98,125,24,21,196,19,0,0 // vbroadcastss 0x13c4(%rip),%ymm10 # 6ce4 <_sk_clut_4D_hsw+0xd5a> .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10 .byte 196,98,125,24,13,186,19,0,0 // vbroadcastss 0x13ba(%rip),%ymm9 # 6ce8 <_sk_clut_4D_hsw+0xd5e> .byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9 .byte 196,98,125,24,21,176,19,0,0 // vbroadcastss 0x13b0(%rip),%ymm10 # 6cec <_sk_clut_4D_hsw+0xd62> .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10 .byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1y_hsw .globl _sk_bicubic_p1y_hsw FUNCTION(_sk_bicubic_p1y_hsw) _sk_bicubic_p1y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,152,19,0,0 // vbroadcastss 0x1398(%rip),%ymm8 # 6cf0 <_sk_clut_4D_hsw+0xd66> .byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1 .byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9 .byte 196,98,125,24,21,137,19,0,0 // vbroadcastss 0x1389(%rip),%ymm10 # 6cf4 <_sk_clut_4D_hsw+0xd6a> .byte 196,98,125,24,29,132,19,0,0 // vbroadcastss 0x1384(%rip),%ymm11 # 6cf8 <_sk_clut_4D_hsw+0xd6e> .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11 .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11 .byte 196,98,125,24,5,117,19,0,0 // vbroadcastss 0x1375(%rip),%ymm8 # 6cfc <_sk_clut_4D_hsw+0xd72> .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3y_hsw .globl _sk_bicubic_p3y_hsw FUNCTION(_sk_bicubic_p3y_hsw) _sk_bicubic_p3y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,93,19,0,0 // vbroadcastss 0x135d(%rip),%ymm1 # 6d00 <_sk_clut_4D_hsw+0xd76> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,73,19,0,0 // vbroadcastss 0x1349(%rip),%ymm10 # 6d04 <_sk_clut_4D_hsw+0xd7a> .byte 196,98,125,24,29,68,19,0,0 // vbroadcastss 0x1344(%rip),%ymm11 # 6d08 <_sk_clut_4D_hsw+0xd7e> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_callback_hsw .globl _sk_callback_hsw FUNCTION(_sk_callback_hsw) _sk_callback_hsw: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp .byte 72,129,236,192,0,0,0 // sub $0xc0,%rsp .byte 197,252,41,188,36,128,0,0,0 // vmovaps %ymm7,0x80(%rsp) .byte 197,252,41,116,36,96 // vmovaps %ymm6,0x60(%rsp) .byte 197,252,41,108,36,64 // vmovaps %ymm5,0x40(%rsp) .byte 197,252,41,100,36,32 // vmovaps %ymm4,0x20(%rsp) .byte 76,137,195 // mov %r8,%rbx .byte 72,137,76,36,24 // mov %rcx,0x18(%rsp) .byte 73,137,215 // mov %rdx,%r15 .byte 73,137,252 // mov %rdi,%r12 .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,198 // mov %rax,%r14 .byte 73,137,245 // mov %rsi,%r13 .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4 .byte 197,252,21,193 // vunpckhps %ymm1,%ymm0,%ymm0 .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1 .byte 197,236,21,211 // vunpckhps %ymm3,%ymm2,%ymm2 .byte 197,221,20,217 // vunpcklpd %ymm1,%ymm4,%ymm3 .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1 .byte 197,253,20,226 // vunpcklpd %ymm2,%ymm0,%ymm4 .byte 197,253,21,194 // vunpckhpd %ymm2,%ymm0,%ymm0 .byte 196,227,101,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm2 .byte 196,227,93,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm5 .byte 196,227,101,6,201,49 // vperm2f128 $0x31,%ymm1,%ymm3,%ymm1 .byte 196,227,93,6,192,49 // vperm2f128 $0x31,%ymm0,%ymm4,%ymm0 .byte 196,193,125,17,86,8 // vmovupd %ymm2,0x8(%r14) .byte 196,193,125,17,110,40 // vmovupd %ymm5,0x28(%r14) .byte 196,193,125,17,78,72 // vmovupd %ymm1,0x48(%r14) .byte 196,193,125,17,70,104 // vmovupd %ymm0,0x68(%r14) .byte 72,133,219 // test %rbx,%rbx .byte 190,8,0,0,0 // mov $0x8,%esi .byte 15,69,243 // cmovne %ebx,%esi .byte 76,137,247 // mov %r14,%rdi .byte 197,248,119 // vzeroupper .byte 65,255,22 // callq *(%r14) .byte 73,139,134,136,0,0,0 // mov 0x88(%r14),%rax .byte 197,248,16,0 // vmovups (%rax),%xmm0 .byte 197,248,16,72,16 // vmovups 0x10(%rax),%xmm1 .byte 197,248,16,80,32 // vmovups 0x20(%rax),%xmm2 .byte 197,248,16,88,48 // vmovups 0x30(%rax),%xmm3 .byte 196,227,101,24,88,112,1 // vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3 .byte 196,227,109,24,80,96,1 // vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2 .byte 196,227,117,24,72,80,1 // vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1 .byte 196,227,125,24,64,64,1 // vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0 .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4 .byte 197,252,21,233 // vunpckhps %ymm1,%ymm0,%ymm5 .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1 .byte 197,236,21,219 // vunpckhps %ymm3,%ymm2,%ymm3 .byte 197,221,20,193 // vunpcklpd %ymm1,%ymm4,%ymm0 .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1 .byte 197,213,20,211 // vunpcklpd %ymm3,%ymm5,%ymm2 .byte 197,213,21,219 // vunpckhpd %ymm3,%ymm5,%ymm3 .byte 76,137,238 // mov %r13,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,231 // mov %r12,%rdi .byte 76,137,250 // mov %r15,%rdx .byte 72,139,76,36,24 // mov 0x18(%rsp),%rcx .byte 73,137,216 // mov %rbx,%r8 .byte 197,252,40,100,36,32 // vmovaps 0x20(%rsp),%ymm4 .byte 197,252,40,108,36,64 // vmovaps 0x40(%rsp),%ymm5 .byte 197,252,40,116,36,96 // vmovaps 0x60(%rsp),%ymm6 .byte 197,252,40,188,36,128,0,0,0 // vmovaps 0x80(%rsp),%ymm7 .byte 72,141,101,216 // lea -0x28(%rbp),%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_3D_hsw .globl _sk_clut_3D_hsw FUNCTION(_sk_clut_3D_hsw) _sk_clut_3D_hsw: .byte 72,129,236,216,1,0,0 // sub $0x1d8,%rsp .byte 197,252,17,188,36,160,1,0,0 // vmovups %ymm7,0x1a0(%rsp) .byte 197,254,127,180,36,128,1,0,0 // vmovdqu %ymm6,0x180(%rsp) .byte 197,252,17,172,36,96,1,0,0 // vmovups %ymm5,0x160(%rsp) .byte 197,252,17,164,36,64,1,0,0 // vmovups %ymm4,0x140(%rsp) .byte 197,252,17,156,36,32,1,0,0 // vmovups %ymm3,0x120(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,218 // vmovd %r10d,%xmm3 .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp) .byte 197,254,91,234 // vcvttps2dq %ymm2,%ymm5 .byte 196,193,121,110,209 // vmovd %r9d,%xmm2 .byte 196,193,121,110,217 // vmovd %r9d,%xmm3 .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3 .byte 197,254,127,92,36,128 // vmovdqu %ymm3,-0x80(%rsp) .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,226 // vmovd %r10d,%xmm4 .byte 196,226,125,88,228 // vpbroadcastd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 197,220,89,201 // vmulps %ymm1,%ymm4,%ymm1 .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp) .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,254,127,140,36,0,1,0,0 // vmovdqu %ymm1,0x100(%rsp) .byte 196,226,117,64,203 // vpmulld %ymm3,%ymm1,%ymm1 .byte 197,254,127,76,36,96 // vmovdqu %ymm1,0x60(%rsp) .byte 197,117,254,229 // vpaddd %ymm5,%ymm1,%ymm12 .byte 197,125,111,205 // vmovdqa %ymm5,%ymm9 .byte 197,126,127,140,36,224,0,0,0 // vmovdqu %ymm9,0xe0(%rsp) .byte 196,193,121,110,201 // vmovd %r9d,%xmm1 .byte 196,226,117,64,202 // vpmulld %ymm2,%ymm1,%ymm1 .byte 196,226,125,88,233 // vpbroadcastd %xmm1,%ymm5 .byte 68,139,72,8 // mov 0x8(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 196,193,121,110,201 // vmovd %r9d,%xmm1 .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 197,244,89,192 // vmulps %ymm0,%ymm1,%ymm0 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,226,109,64,205 // vpmulld %ymm5,%ymm2,%ymm1 .byte 197,254,127,76,36,160 // vmovdqu %ymm1,-0x60(%rsp) .byte 72,139,0 // mov (%rax),%rax .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 196,226,125,88,61,245,16,0,0 // vpbroadcastd 0x10f5(%rip),%ymm7 # 6d10 <_sk_clut_4D_hsw+0xd86> .byte 196,226,117,64,207 // vpmulld %ymm7,%ymm1,%ymm1 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,98,77,146,4,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm8 .byte 196,98,125,88,21,225,16,0,0 // vpbroadcastd 0x10e1(%rip),%ymm10 # 6d14 <_sk_clut_4D_hsw+0xd8a> .byte 196,193,117,254,242 // vpaddd %ymm10,%ymm1,%ymm6 .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11 .byte 196,226,37,146,28,176 // vgatherdps %ymm11,(%rax,%ymm6,4),%ymm3 .byte 196,98,125,88,29,204,16,0,0 // vpbroadcastd 0x10cc(%rip),%ymm11 # 6d18 <_sk_clut_4D_hsw+0xd8e> .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,36,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm4 .byte 196,98,125,24,45,168,16,0,0 // vbroadcastss 0x10a8(%rip),%ymm13 # 6d0c <_sk_clut_4D_hsw+0xd82> .byte 196,193,124,88,245 // vaddps %ymm13,%ymm0,%ymm6 .byte 197,254,91,246 // vcvttps2dq %ymm6,%ymm6 .byte 196,226,77,64,205 // vpmulld %ymm5,%ymm6,%ymm1 .byte 197,254,127,12,36 // vmovdqu %ymm1,(%rsp) .byte 196,193,117,254,236 // vpaddd %ymm12,%ymm1,%ymm5 .byte 196,226,85,64,239 // vpmulld %ymm7,%ymm5,%ymm5 .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 .byte 196,98,29,146,60,168 // vgatherdps %ymm12,(%rax,%ymm5,4),%ymm15 .byte 196,65,85,254,226 // vpaddd %ymm10,%ymm5,%ymm12 .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14 .byte 196,162,13,146,12,160 // vgatherdps %ymm14,(%rax,%ymm12,4),%ymm1 .byte 196,193,85,254,235 // vpaddd %ymm11,%ymm5,%ymm5 .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 .byte 196,226,29,146,52,168 // vgatherdps %ymm12,(%rax,%ymm5,4),%ymm6 .byte 197,252,91,234 // vcvtdq2ps %ymm2,%ymm5 .byte 197,124,92,245 // vsubps %ymm5,%ymm0,%ymm14 .byte 196,193,4,92,192 // vsubps %ymm8,%ymm15,%ymm0 .byte 196,194,13,168,192 // vfmadd213ps %ymm8,%ymm14,%ymm0 .byte 197,252,17,132,36,192,0,0,0 // vmovups %ymm0,0xc0(%rsp) .byte 197,244,92,195 // vsubps %ymm3,%ymm1,%ymm0 .byte 196,226,13,168,195 // vfmadd213ps %ymm3,%ymm14,%ymm0 .byte 197,252,17,132,36,160,0,0,0 // vmovups %ymm0,0xa0(%rsp) .byte 197,204,92,196 // vsubps %ymm4,%ymm6,%ymm0 .byte 196,226,13,168,196 // vfmadd213ps %ymm4,%ymm14,%ymm0 .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp) .byte 197,148,88,68,36,192 // vaddps -0x40(%rsp),%ymm13,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 196,226,125,64,68,36,128 // vpmulld -0x80(%rsp),%ymm0,%ymm0 .byte 197,254,127,68,36,32 // vmovdqu %ymm0,0x20(%rsp) .byte 196,193,125,254,193 // vpaddd %ymm9,%ymm0,%ymm0 .byte 197,126,111,76,36,160 // vmovdqu -0x60(%rsp),%ymm9 .byte 196,193,125,254,201 // vpaddd %ymm9,%ymm0,%ymm1 .byte 196,226,117,64,207 // vpmulld %ymm7,%ymm1,%ymm1 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,36,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm4 .byte 196,193,117,254,218 // vpaddd %ymm10,%ymm1,%ymm3 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,226,85,146,52,152 // vgatherdps %ymm5,(%rax,%ymm3,4),%ymm6 .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,20,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm2 .byte 197,126,111,36,36 // vmovdqu (%rsp),%ymm12 .byte 197,157,254,192 // vpaddd %ymm0,%ymm12,%ymm0 .byte 196,226,125,64,199 // vpmulld %ymm7,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,28,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm3 .byte 196,193,125,254,202 // vpaddd %ymm10,%ymm0,%ymm1 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,98,85,146,4,136 // vgatherdps %ymm5,(%rax,%ymm1,4),%ymm8 .byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,44,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm5 .byte 197,228,92,196 // vsubps %ymm4,%ymm3,%ymm0 .byte 196,226,13,168,196 // vfmadd213ps %ymm4,%ymm14,%ymm0 .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp) .byte 197,188,92,198 // vsubps %ymm6,%ymm8,%ymm0 .byte 196,226,13,168,198 // vfmadd213ps %ymm6,%ymm14,%ymm0 .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp) .byte 197,84,92,250 // vsubps %ymm2,%ymm5,%ymm15 .byte 196,98,13,168,250 // vfmadd213ps %ymm2,%ymm14,%ymm15 .byte 197,148,88,68,36,224 // vaddps -0x20(%rsp),%ymm13,%ymm0 .byte 197,126,91,232 // vcvttps2dq %ymm0,%ymm13 .byte 197,149,254,68,36,96 // vpaddd 0x60(%rsp),%ymm13,%ymm0 .byte 197,181,254,200 // vpaddd %ymm0,%ymm9,%ymm1 .byte 196,226,117,64,207 // vpmulld %ymm7,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,44,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm5 .byte 196,193,117,254,210 // vpaddd %ymm10,%ymm1,%ymm2 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,28,144 // vgatherdps %ymm6,(%rax,%ymm2,4),%ymm3 .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,52,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm6 .byte 197,157,254,192 // vpaddd %ymm0,%ymm12,%ymm0 .byte 196,226,125,64,199 // vpmulld %ymm7,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2 .byte 196,193,125,254,202 // vpaddd %ymm10,%ymm0,%ymm1 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,226,53,146,36,136 // vgatherdps %ymm9,(%rax,%ymm1,4),%ymm4 .byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,98,117,146,4,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm8 .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1 .byte 196,226,13,168,205 // vfmadd213ps %ymm5,%ymm14,%ymm1 .byte 197,92,92,203 // vsubps %ymm3,%ymm4,%ymm9 .byte 196,98,13,168,203 // vfmadd213ps %ymm3,%ymm14,%ymm9 .byte 197,188,92,198 // vsubps %ymm6,%ymm8,%ymm0 .byte 196,226,13,168,198 // vfmadd213ps %ymm6,%ymm14,%ymm0 .byte 197,149,254,84,36,32 // vpaddd 0x20(%rsp),%ymm13,%ymm2 .byte 197,237,254,92,36,160 // vpaddd -0x60(%rsp),%ymm2,%ymm3 .byte 196,226,101,64,223 // vpmulld %ymm7,%ymm3,%ymm3 .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4 .byte 196,226,93,146,44,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5 .byte 196,193,101,254,226 // vpaddd %ymm10,%ymm3,%ymm4 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,98,77,146,4,160 // vgatherdps %ymm6,(%rax,%ymm4,4),%ymm8 .byte 196,193,101,254,219 // vpaddd %ymm11,%ymm3,%ymm3 .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4 .byte 196,226,93,146,52,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm6 .byte 197,157,254,210 // vpaddd %ymm2,%ymm12,%ymm2 .byte 196,226,109,64,215 // vpmulld %ymm7,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4 .byte 196,193,109,254,218 // vpaddd %ymm10,%ymm2,%ymm3 .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7 .byte 196,98,69,146,20,152 // vgatherdps %ymm7,(%rax,%ymm3,4),%ymm10 .byte 196,193,109,254,211 // vpaddd %ymm11,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,60,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm7 .byte 197,220,92,213 // vsubps %ymm5,%ymm4,%ymm2 .byte 196,226,13,168,213 // vfmadd213ps %ymm5,%ymm14,%ymm2 .byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3 .byte 196,194,13,168,216 // vfmadd213ps %ymm8,%ymm14,%ymm3 .byte 197,196,92,230 // vsubps %ymm6,%ymm7,%ymm4 .byte 196,226,13,168,230 // vfmadd213ps %ymm6,%ymm14,%ymm4 .byte 197,252,91,172,36,0,1,0,0 // vcvtdq2ps 0x100(%rsp),%ymm5 .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6 .byte 197,204,92,237 // vsubps %ymm5,%ymm6,%ymm5 .byte 197,252,16,188,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm7 .byte 197,252,16,116,36,128 // vmovups -0x80(%rsp),%ymm6 .byte 197,204,92,247 // vsubps %ymm7,%ymm6,%ymm6 .byte 196,226,85,168,247 // vfmadd213ps %ymm7,%ymm5,%ymm6 .byte 197,124,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm8 .byte 197,252,16,124,36,64 // vmovups 0x40(%rsp),%ymm7 .byte 196,193,68,92,248 // vsubps %ymm8,%ymm7,%ymm7 .byte 196,194,85,168,248 // vfmadd213ps %ymm8,%ymm5,%ymm7 .byte 197,124,16,148,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm10 .byte 196,65,4,92,194 // vsubps %ymm10,%ymm15,%ymm8 .byte 196,66,85,168,194 // vfmadd213ps %ymm10,%ymm5,%ymm8 .byte 197,236,92,209 // vsubps %ymm1,%ymm2,%ymm2 .byte 196,226,85,168,209 // vfmadd213ps %ymm1,%ymm5,%ymm2 .byte 196,193,100,92,201 // vsubps %ymm9,%ymm3,%ymm1 .byte 196,194,85,168,201 // vfmadd213ps %ymm9,%ymm5,%ymm1 .byte 197,220,92,216 // vsubps %ymm0,%ymm4,%ymm3 .byte 196,226,85,168,216 // vfmadd213ps %ymm0,%ymm5,%ymm3 .byte 197,252,91,132,36,224,0,0,0 // vcvtdq2ps 0xe0(%rsp),%ymm0 .byte 197,252,16,100,36,224 // vmovups -0x20(%rsp),%ymm4 .byte 197,220,92,224 // vsubps %ymm0,%ymm4,%ymm4 .byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0 .byte 196,226,93,168,198 // vfmadd213ps %ymm6,%ymm4,%ymm0 .byte 197,244,92,207 // vsubps %ymm7,%ymm1,%ymm1 .byte 196,226,93,168,207 // vfmadd213ps %ymm7,%ymm4,%ymm1 .byte 196,193,100,92,208 // vsubps %ymm8,%ymm3,%ymm2 .byte 196,194,93,168,208 // vfmadd213ps %ymm8,%ymm4,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,156,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm3 .byte 197,252,16,164,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm4 .byte 197,252,16,172,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm5 .byte 197,252,16,180,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm6 .byte 197,252,16,188,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm7 .byte 72,129,196,216,1,0,0 // add $0x1d8,%rsp .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_4D_hsw .globl _sk_clut_4D_hsw FUNCTION(_sk_clut_4D_hsw) _sk_clut_4D_hsw: .byte 72,129,236,184,3,0,0 // sub $0x3b8,%rsp .byte 197,252,17,188,36,128,3,0,0 // vmovups %ymm7,0x380(%rsp) .byte 197,252,17,180,36,96,3,0,0 // vmovups %ymm6,0x360(%rsp) .byte 197,252,17,172,36,64,3,0,0 // vmovups %ymm5,0x340(%rsp) .byte 197,252,17,164,36,32,3,0,0 // vmovups %ymm4,0x320(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,20 // mov 0x14(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,226 // vmovd %r10d,%xmm4 .byte 196,226,125,88,228 // vpbroadcastd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 197,220,89,219 // vmulps %ymm3,%ymm4,%ymm3 .byte 197,252,17,156,36,160,0,0,0 // vmovups %ymm3,0xa0(%rsp) .byte 197,254,91,243 // vcvttps2dq %ymm3,%ymm6 .byte 197,254,127,180,36,128,0,0,0 // vmovdqu %ymm6,0x80(%rsp) .byte 196,193,121,110,225 // vmovd %r9d,%xmm4 .byte 196,193,121,110,217 // vmovd %r9d,%xmm3 .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3 .byte 197,254,127,92,36,192 // vmovdqu %ymm3,-0x40(%rsp) .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,234 // vmovd %r10d,%xmm5 .byte 196,226,125,88,237 // vpbroadcastd %xmm5,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 197,212,89,210 // vmulps %ymm2,%ymm5,%ymm2 .byte 197,252,17,84,36,96 // vmovups %ymm2,0x60(%rsp) .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2 .byte 197,254,127,148,36,0,3,0,0 // vmovdqu %ymm2,0x300(%rsp) .byte 196,226,109,64,211 // vpmulld %ymm3,%ymm2,%ymm2 .byte 197,254,127,84,36,224 // vmovdqu %ymm2,-0x20(%rsp) .byte 197,237,254,222 // vpaddd %ymm6,%ymm2,%ymm3 .byte 197,254,127,28,36 // vmovdqu %ymm3,(%rsp) .byte 196,193,121,110,233 // vmovd %r9d,%xmm5 .byte 196,226,85,64,236 // vpmulld %ymm4,%ymm5,%ymm5 .byte 196,226,125,88,253 // vpbroadcastd %xmm5,%ymm7 .byte 197,254,127,124,36,32 // vmovdqu %ymm7,0x20(%rsp) .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,242 // vmovd %r10d,%xmm6 .byte 196,226,125,88,246 // vpbroadcastd %xmm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 197,204,89,225 // vmulps %ymm1,%ymm6,%ymm4 .byte 196,193,121,110,201 // vmovd %r9d,%xmm1 .byte 196,226,117,64,205 // vpmulld %ymm5,%ymm1,%ymm1 .byte 68,139,72,8 // mov 0x8(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 196,193,121,110,233 // vmovd %r9d,%xmm5 .byte 196,226,125,88,237 // vpbroadcastd %xmm5,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 197,212,89,232 // vmulps %ymm0,%ymm5,%ymm5 .byte 197,254,91,196 // vcvttps2dq %ymm4,%ymm0 .byte 197,254,127,132,36,224,2,0,0 // vmovdqu %ymm0,0x2e0(%rsp) .byte 197,252,17,164,36,96,2,0,0 // vmovups %ymm4,0x260(%rsp) .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1 .byte 72,139,0 // mov (%rax),%rax .byte 196,226,125,64,199 // vpmulld %ymm7,%ymm0,%ymm0 .byte 197,254,127,68,36,128 // vmovdqu %ymm0,-0x80(%rsp) .byte 197,253,254,243 // vpaddd %ymm3,%ymm0,%ymm6 .byte 197,126,91,245 // vcvttps2dq %ymm5,%ymm14 .byte 196,98,13,64,233 // vpmulld %ymm1,%ymm14,%ymm13 .byte 197,149,254,198 // vpaddd %ymm6,%ymm13,%ymm0 .byte 196,98,125,88,21,78,12,0,0 // vpbroadcastd 0xc4e(%rip),%ymm10 # 6d20 <_sk_clut_4D_hsw+0xd96> .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,98,61,146,60,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm15 .byte 196,98,125,88,29,57,12,0,0 // vpbroadcastd 0xc39(%rip),%ymm11 # 6d24 <_sk_clut_4D_hsw+0xd9a> .byte 196,65,125,254,195 // vpaddd %ymm11,%ymm0,%ymm8 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2 .byte 196,98,125,88,37,36,12,0,0 // vpbroadcastd 0xc24(%rip),%ymm12 # 6d28 <_sk_clut_4D_hsw+0xd9e> .byte 196,193,125,254,196 // vpaddd %ymm12,%ymm0,%ymm0 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,226,61,146,60,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm7 .byte 196,98,125,24,13,255,11,0,0 // vbroadcastss 0xbff(%rip),%ymm9 # 6d1c <_sk_clut_4D_hsw+0xd92> .byte 196,65,84,88,193 // vaddps %ymm9,%ymm5,%ymm8 .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8 .byte 196,226,61,64,193 // vpmulld %ymm1,%ymm8,%ymm0 .byte 197,254,127,68,36,64 // vmovdqu %ymm0,0x40(%rsp) .byte 197,253,254,206 // vpaddd %ymm6,%ymm0,%ymm1 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,98,77,146,4,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm8 .byte 196,193,117,254,243 // vpaddd %ymm11,%ymm1,%ymm6 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,4,176 // vgatherdps %ymm3,(%rax,%ymm6,4),%ymm0 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,52,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm6 .byte 196,193,124,91,206 // vcvtdq2ps %ymm14,%ymm1 .byte 197,84,92,241 // vsubps %ymm1,%ymm5,%ymm14 .byte 196,193,60,92,207 // vsubps %ymm15,%ymm8,%ymm1 .byte 196,194,13,168,207 // vfmadd213ps %ymm15,%ymm14,%ymm1 .byte 197,252,17,140,36,192,2,0,0 // vmovups %ymm1,0x2c0(%rsp) .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0 .byte 196,226,13,168,194 // vfmadd213ps %ymm2,%ymm14,%ymm0 .byte 197,252,17,132,36,160,2,0,0 // vmovups %ymm0,0x2a0(%rsp) .byte 197,204,92,199 // vsubps %ymm7,%ymm6,%ymm0 .byte 196,226,13,168,199 // vfmadd213ps %ymm7,%ymm14,%ymm0 .byte 197,252,17,132,36,128,2,0,0 // vmovups %ymm0,0x280(%rsp) .byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp) .byte 196,193,92,88,193 // vaddps %ymm9,%ymm4,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 196,226,125,64,76,36,32 // vpmulld 0x20(%rsp),%ymm0,%ymm1 .byte 197,245,254,4,36 // vpaddd (%rsp),%ymm1,%ymm0 .byte 197,125,111,249 // vmovdqa %ymm1,%ymm15 .byte 196,193,125,254,205 // vpaddd %ymm13,%ymm0,%ymm1 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3 .byte 196,193,117,254,211 // vpaddd %ymm11,%ymm1,%ymm2 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,226,85,146,52,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm6 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,44,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm5 .byte 197,254,111,100,36,64 // vmovdqu 0x40(%rsp),%ymm4 .byte 197,221,254,192 // vpaddd %ymm0,%ymm4,%ymm0 .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2 .byte 196,193,125,254,203 // vpaddd %ymm11,%ymm0,%ymm1 .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7 .byte 196,98,69,146,4,136 // vgatherdps %ymm7,(%rax,%ymm1,4),%ymm8 .byte 196,193,125,254,196 // vpaddd %ymm12,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,60,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm7 .byte 197,236,92,195 // vsubps %ymm3,%ymm2,%ymm0 .byte 196,226,13,168,195 // vfmadd213ps %ymm3,%ymm14,%ymm0 .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp) .byte 197,188,92,198 // vsubps %ymm6,%ymm8,%ymm0 .byte 196,226,13,168,198 // vfmadd213ps %ymm6,%ymm14,%ymm0 .byte 197,252,17,4,36 // vmovups %ymm0,(%rsp) .byte 197,196,92,197 // vsubps %ymm5,%ymm7,%ymm0 .byte 196,226,13,168,197 // vfmadd213ps %ymm5,%ymm14,%ymm0 .byte 197,252,17,132,36,64,2,0,0 // vmovups %ymm0,0x240(%rsp) .byte 197,180,88,68,36,96 // vaddps 0x60(%rsp),%ymm9,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 196,226,125,64,68,36,192 // vpmulld -0x40(%rsp),%ymm0,%ymm0 .byte 197,254,127,132,36,128,1,0,0 // vmovdqu %ymm0,0x180(%rsp) .byte 197,253,254,132,36,128,0,0,0 // vpaddd 0x80(%rsp),%ymm0,%ymm0 .byte 197,253,254,76,36,128 // vpaddd -0x80(%rsp),%ymm0,%ymm1 .byte 196,193,117,254,213 // vpaddd %ymm13,%ymm1,%ymm2 .byte 196,65,125,111,205 // vmovdqa %ymm13,%ymm9 .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,44,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm5 .byte 196,193,109,254,219 // vpaddd %ymm11,%ymm2,%ymm3 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,60,152 // vgatherdps %ymm6,(%rax,%ymm3,4),%ymm7 .byte 196,193,109,254,212 // vpaddd %ymm12,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,52,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm6 .byte 197,221,254,201 // vpaddd %ymm1,%ymm4,%ymm1 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3 .byte 196,193,117,254,211 // vpaddd %ymm11,%ymm1,%ymm2 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,98,61,146,44,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm13 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,98,109,146,4,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm8 .byte 197,228,92,205 // vsubps %ymm5,%ymm3,%ymm1 .byte 196,226,13,168,205 // vfmadd213ps %ymm5,%ymm14,%ymm1 .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp) .byte 197,148,92,207 // vsubps %ymm7,%ymm13,%ymm1 .byte 196,226,13,168,207 // vfmadd213ps %ymm7,%ymm14,%ymm1 .byte 197,252,17,140,36,32,2,0,0 // vmovups %ymm1,0x220(%rsp) .byte 197,188,92,206 // vsubps %ymm6,%ymm8,%ymm1 .byte 196,226,13,168,206 // vfmadd213ps %ymm6,%ymm14,%ymm1 .byte 197,252,17,140,36,0,2,0,0 // vmovups %ymm1,0x200(%rsp) .byte 197,126,127,188,36,0,1,0,0 // vmovdqu %ymm15,0x100(%rsp) .byte 197,133,254,192 // vpaddd %ymm0,%ymm15,%ymm0 .byte 196,193,125,254,201 // vpaddd %ymm9,%ymm0,%ymm1 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3 .byte 196,193,117,254,211 // vpaddd %ymm11,%ymm1,%ymm2 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,226,85,146,52,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm6 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,44,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm5 .byte 197,221,254,192 // vpaddd %ymm0,%ymm4,%ymm0 .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2 .byte 196,193,125,254,203 // vpaddd %ymm11,%ymm0,%ymm1 .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7 .byte 196,98,69,146,4,136 // vgatherdps %ymm7,(%rax,%ymm1,4),%ymm8 .byte 196,193,125,254,196 // vpaddd %ymm12,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,60,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm7 .byte 197,236,92,195 // vsubps %ymm3,%ymm2,%ymm0 .byte 196,226,13,168,195 // vfmadd213ps %ymm3,%ymm14,%ymm0 .byte 197,252,17,132,36,224,1,0,0 // vmovups %ymm0,0x1e0(%rsp) .byte 197,188,92,198 // vsubps %ymm6,%ymm8,%ymm0 .byte 196,226,13,168,198 // vfmadd213ps %ymm6,%ymm14,%ymm0 .byte 197,252,17,132,36,192,1,0,0 // vmovups %ymm0,0x1c0(%rsp) .byte 197,196,92,197 // vsubps %ymm5,%ymm7,%ymm0 .byte 196,226,13,168,197 // vfmadd213ps %ymm5,%ymm14,%ymm0 .byte 197,252,17,132,36,160,1,0,0 // vmovups %ymm0,0x1a0(%rsp) .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0 .byte 197,252,88,132,36,160,0,0,0 // vaddps 0xa0(%rsp),%ymm0,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,254,127,132,36,32,1,0,0 // vmovdqu %ymm0,0x120(%rsp) .byte 197,125,254,68,36,224 // vpaddd -0x20(%rsp),%ymm0,%ymm8 .byte 197,189,254,76,36,128 // vpaddd -0x80(%rsp),%ymm8,%ymm1 .byte 197,181,254,209 // vpaddd %ymm1,%ymm9,%ymm2 .byte 197,125,127,207 // vmovdqa %ymm9,%ymm7 .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4 .byte 196,193,109,254,219 // vpaddd %ymm11,%ymm2,%ymm3 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,98,85,146,44,152 // vgatherdps %ymm5,(%rax,%ymm3,4),%ymm13 .byte 196,193,109,254,212 // vpaddd %ymm12,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,44,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm5 .byte 197,126,111,76,36,64 // vmovdqu 0x40(%rsp),%ymm9 .byte 197,181,254,201 // vpaddd %ymm1,%ymm9,%ymm1 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3 .byte 196,193,117,254,211 // vpaddd %ymm11,%ymm1,%ymm2 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,4,144 // vgatherdps %ymm6,(%rax,%ymm2,4),%ymm0 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,52,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm6 .byte 197,228,92,204 // vsubps %ymm4,%ymm3,%ymm1 .byte 196,226,13,168,204 // vfmadd213ps %ymm4,%ymm14,%ymm1 .byte 197,252,17,76,36,224 // vmovups %ymm1,-0x20(%rsp) .byte 196,193,124,92,197 // vsubps %ymm13,%ymm0,%ymm0 .byte 196,194,13,168,197 // vfmadd213ps %ymm13,%ymm14,%ymm0 .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp) .byte 197,204,92,197 // vsubps %ymm5,%ymm6,%ymm0 .byte 196,226,13,168,197 // vfmadd213ps %ymm5,%ymm14,%ymm0 .byte 197,252,17,132,36,96,1,0,0 // vmovups %ymm0,0x160(%rsp) .byte 196,193,5,254,192 // vpaddd %ymm8,%ymm15,%ymm0 .byte 197,253,254,207 // vpaddd %ymm7,%ymm0,%ymm1 .byte 197,125,111,255 // vmovdqa %ymm7,%ymm15 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3 .byte 196,193,117,254,211 // vpaddd %ymm11,%ymm1,%ymm2 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,226,85,146,52,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm6 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 196,226,109,146,60,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm7 .byte 197,181,254,192 // vpaddd %ymm0,%ymm9,%ymm0 .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2 .byte 196,193,125,254,203 // vpaddd %ymm11,%ymm0,%ymm1 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,98,85,146,44,136 // vgatherdps %ymm5,(%rax,%ymm1,4),%ymm13 .byte 196,193,125,254,196 // vpaddd %ymm12,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,36,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm4 .byte 197,236,92,195 // vsubps %ymm3,%ymm2,%ymm0 .byte 196,226,13,168,195 // vfmadd213ps %ymm3,%ymm14,%ymm0 .byte 197,252,17,132,36,64,1,0,0 // vmovups %ymm0,0x140(%rsp) .byte 197,148,92,198 // vsubps %ymm6,%ymm13,%ymm0 .byte 196,226,13,168,198 // vfmadd213ps %ymm6,%ymm14,%ymm0 .byte 197,252,17,132,36,192,0,0,0 // vmovups %ymm0,0xc0(%rsp) .byte 197,220,92,199 // vsubps %ymm7,%ymm4,%ymm0 .byte 196,226,13,168,199 // vfmadd213ps %ymm7,%ymm14,%ymm0 .byte 197,252,17,132,36,224,0,0,0 // vmovups %ymm0,0xe0(%rsp) .byte 197,254,111,132,36,32,1,0,0 // vmovdqu 0x120(%rsp),%ymm0 .byte 197,253,254,172,36,128,1,0,0 // vpaddd 0x180(%rsp),%ymm0,%ymm5 .byte 197,213,254,68,36,128 // vpaddd -0x80(%rsp),%ymm5,%ymm0 .byte 196,193,125,254,207 // vpaddd %ymm15,%ymm0,%ymm1 .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,60,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm7 .byte 196,193,117,254,243 // vpaddd %ymm11,%ymm1,%ymm6 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,98,61,146,44,176 // vgatherdps %ymm8,(%rax,%ymm6,4),%ymm13 .byte 196,193,117,254,204 // vpaddd %ymm12,%ymm1,%ymm1 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,20,136 // vgatherdps %ymm6,(%rax,%ymm1,4),%ymm2 .byte 197,181,254,192 // vpaddd %ymm0,%ymm9,%ymm0 .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,52,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm6 .byte 196,193,125,254,203 // vpaddd %ymm11,%ymm0,%ymm1 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 196,226,61,146,28,136 // vgatherdps %ymm8,(%rax,%ymm1,4),%ymm3 .byte 196,193,125,254,196 // vpaddd %ymm12,%ymm0,%ymm0 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,226,117,146,36,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm4 .byte 197,204,92,199 // vsubps %ymm7,%ymm6,%ymm0 .byte 196,226,13,168,199 // vfmadd213ps %ymm7,%ymm14,%ymm0 .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp) .byte 196,193,100,92,205 // vsubps %ymm13,%ymm3,%ymm1 .byte 196,194,13,168,205 // vfmadd213ps %ymm13,%ymm14,%ymm1 .byte 197,92,92,194 // vsubps %ymm2,%ymm4,%ymm8 .byte 196,98,13,168,194 // vfmadd213ps %ymm2,%ymm14,%ymm8 .byte 197,213,254,148,36,0,1,0,0 // vpaddd 0x100(%rsp),%ymm5,%ymm2 .byte 196,193,109,254,223 // vpaddd %ymm15,%ymm2,%ymm3 .byte 196,194,101,64,218 // vpmulld %ymm10,%ymm3,%ymm3 .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4 .byte 196,226,93,146,44,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5 .byte 196,193,101,254,227 // vpaddd %ymm11,%ymm3,%ymm4 .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6 .byte 196,226,77,146,60,160 // vgatherdps %ymm6,(%rax,%ymm4,4),%ymm7 .byte 196,193,101,254,220 // vpaddd %ymm12,%ymm3,%ymm3 .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4 .byte 196,226,93,146,52,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm6 .byte 197,181,254,210 // vpaddd %ymm2,%ymm9,%ymm2 .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4 .byte 196,193,109,254,219 // vpaddd %ymm11,%ymm2,%ymm3 .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10 .byte 196,98,45,146,28,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm11 .byte 196,193,109,254,212 // vpaddd %ymm12,%ymm2,%ymm2 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10 .byte 197,220,92,213 // vsubps %ymm5,%ymm4,%ymm2 .byte 196,226,13,168,213 // vfmadd213ps %ymm5,%ymm14,%ymm2 .byte 197,164,92,223 // vsubps %ymm7,%ymm11,%ymm3 .byte 196,226,13,168,223 // vfmadd213ps %ymm7,%ymm14,%ymm3 .byte 197,172,92,230 // vsubps %ymm6,%ymm10,%ymm4 .byte 196,226,13,168,230 // vfmadd213ps %ymm6,%ymm14,%ymm4 .byte 197,252,91,172,36,224,2,0,0 // vcvtdq2ps 0x2e0(%rsp),%ymm5 .byte 197,252,16,180,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm6 .byte 197,204,92,237 // vsubps %ymm5,%ymm6,%ymm5 .byte 197,252,16,188,36,192,2,0,0 // vmovups 0x2c0(%rsp),%ymm7 .byte 197,252,16,116,36,32 // vmovups 0x20(%rsp),%ymm6 .byte 197,204,92,247 // vsubps %ymm7,%ymm6,%ymm6 .byte 196,226,85,168,247 // vfmadd213ps %ymm7,%ymm5,%ymm6 .byte 197,124,16,148,36,160,2,0,0 // vmovups 0x2a0(%rsp),%ymm10 .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7 .byte 196,193,68,92,250 // vsubps %ymm10,%ymm7,%ymm7 .byte 196,194,85,168,250 // vfmadd213ps %ymm10,%ymm5,%ymm7 .byte 197,124,16,156,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm11 .byte 197,124,16,148,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm10 .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10 .byte 196,66,85,168,211 // vfmadd213ps %ymm11,%ymm5,%ymm10 .byte 197,124,16,100,36,192 // vmovups -0x40(%rsp),%ymm12 .byte 197,124,16,156,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm11 .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 .byte 196,66,85,168,220 // vfmadd213ps %ymm12,%ymm5,%ymm11 .byte 197,124,16,172,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm13 .byte 197,124,16,164,36,192,1,0,0 // vmovups 0x1c0(%rsp),%ymm12 .byte 196,65,28,92,229 // vsubps %ymm13,%ymm12,%ymm12 .byte 196,66,85,168,229 // vfmadd213ps %ymm13,%ymm5,%ymm12 .byte 197,124,16,180,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm14 .byte 197,124,16,172,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm13 .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13 .byte 196,66,85,168,238 // vfmadd213ps %ymm14,%ymm5,%ymm13 .byte 197,252,16,68,36,224 // vmovups -0x20(%rsp),%ymm0 .byte 197,124,16,180,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm14 .byte 197,12,92,240 // vsubps %ymm0,%ymm14,%ymm14 .byte 196,98,85,168,240 // vfmadd213ps %ymm0,%ymm5,%ymm14 .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0 .byte 197,124,16,140,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm9 .byte 197,52,92,248 // vsubps %ymm0,%ymm9,%ymm15 .byte 196,98,85,168,248 // vfmadd213ps %ymm0,%ymm5,%ymm15 .byte 197,252,16,132,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm0 .byte 197,124,16,140,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm9 .byte 197,52,92,200 // vsubps %ymm0,%ymm9,%ymm9 .byte 196,98,85,168,200 // vfmadd213ps %ymm0,%ymm5,%ymm9 .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0 .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2 .byte 196,226,85,168,208 // vfmadd213ps %ymm0,%ymm5,%ymm2 .byte 197,228,92,217 // vsubps %ymm1,%ymm3,%ymm3 .byte 196,226,85,168,217 // vfmadd213ps %ymm1,%ymm5,%ymm3 .byte 196,193,92,92,200 // vsubps %ymm8,%ymm4,%ymm1 .byte 196,194,85,168,200 // vfmadd213ps %ymm8,%ymm5,%ymm1 .byte 197,252,91,132,36,0,3,0,0 // vcvtdq2ps 0x300(%rsp),%ymm0 .byte 197,252,16,100,36,96 // vmovups 0x60(%rsp),%ymm4 .byte 197,220,92,192 // vsubps %ymm0,%ymm4,%ymm0 .byte 197,164,92,230 // vsubps %ymm6,%ymm11,%ymm4 .byte 196,226,125,168,230 // vfmadd213ps %ymm6,%ymm0,%ymm4 .byte 197,156,92,239 // vsubps %ymm7,%ymm12,%ymm5 .byte 196,226,125,168,239 // vfmadd213ps %ymm7,%ymm0,%ymm5 .byte 196,193,20,92,242 // vsubps %ymm10,%ymm13,%ymm6 .byte 196,194,125,168,242 // vfmadd213ps %ymm10,%ymm0,%ymm6 .byte 196,193,108,92,214 // vsubps %ymm14,%ymm2,%ymm2 .byte 196,194,125,168,214 // vfmadd213ps %ymm14,%ymm0,%ymm2 .byte 196,193,100,92,223 // vsubps %ymm15,%ymm3,%ymm3 .byte 196,194,125,168,223 // vfmadd213ps %ymm15,%ymm0,%ymm3 .byte 196,193,116,92,249 // vsubps %ymm9,%ymm1,%ymm7 .byte 196,194,125,168,249 // vfmadd213ps %ymm9,%ymm0,%ymm7 .byte 197,252,91,132,36,128,0,0,0 // vcvtdq2ps 0x80(%rsp),%ymm0 .byte 197,252,16,140,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm1 .byte 197,116,92,192 // vsubps %ymm0,%ymm1,%ymm8 .byte 197,236,92,196 // vsubps %ymm4,%ymm2,%ymm0 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 197,228,92,205 // vsubps %ymm5,%ymm3,%ymm1 .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1 .byte 197,196,92,214 // vsubps %ymm6,%ymm7,%ymm2 .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,49,5,0,0 // vbroadcastss 0x531(%rip),%ymm3 # 6d2c <_sk_clut_4D_hsw+0xda2> .byte 197,252,16,164,36,32,3,0,0 // vmovups 0x320(%rsp),%ymm4 .byte 197,252,16,172,36,64,3,0,0 // vmovups 0x340(%rsp),%ymm5 .byte 197,252,16,180,36,96,3,0,0 // vmovups 0x360(%rsp),%ymm6 .byte 197,252,16,188,36,128,3,0,0 // vmovups 0x380(%rsp),%ymm7 .byte 72,129,196,184,3,0,0 // add $0x3b8,%rsp .byte 255,224 // jmpq *%rax BALIGN4 .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,1 // cmpb $0x1,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 252 // cld .byte 190,0,0,128,63 // mov $0x3f800000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,191,0,0,224,64,154 // cmpb $0x9a,0x40e00000(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope 68e1 <.literal4+0xb9> .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope 68f1 <.literal4+0xc9> .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope 6901 <.literal4+0xd9> .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope 6911 <.literal4+0xe9> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax) .byte 67,0,0 // rex.XB add %al,(%r8) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,145,131,158 // add %al,-0x617c6ec1(%rax) .byte 61,92,143,50,63 // cmp $0x3f328f5c,%eax .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,10,215 // ds or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,10,215 // ds or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,82,184,78,65 // cmp $0x414eb852,%eax .byte 186,159,98,60,57 // mov $0x393c629f,%edx .byte 215 // xlat %ds:(%rbx) .byte 32,187,109,165,144,63 // and %bh,0x3f90a56d(%rbx) .byte 252 // cld .byte 191,16,62,168,177 // mov $0xb1a83e10,%edi .byte 152 // cwtl .byte 59,0 // cmp (%rax),%eax .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%rax) .byte 64,0,0 // add %al,(%rax) .byte 0,64,0 // add %al,0x0(%rax) .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax) .byte 62,0,0 // add %al,%ds:(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,64,171 // add %al,-0x55(%rax) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 0,0 // add %al,(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 128,64,171,170 // addb $0xaa,-0x55(%rax) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,129,128,128,59 // mov $0x3b808081,%esi .byte 129,128,128,59,0,248,0,0,8,33 // addl $0x21080000,-0x7ffc480(%rax) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 6985 <.literal4+0x15d> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,129,128,128,59 // and %eax,0x3b808081(,%rdi,1) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax) .byte 0,52,255 // add %dh,(%rdi,%rdi,8) .byte 255 // (bad) .byte 127,0 // jg 69ac <.literal4+0x184> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 6a25 <.literal4+0x1fd> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 69e0 <.literal4+0x1b8> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 6a59 <.literal4+0x231> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 6a14 <.literal4+0x1ec> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 6a8d <.literal4+0x265> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 6a48 <.literal4+0x220> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 6ac1 <.literal4+0x299> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 6a7c <.literal4+0x254> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 6af5 <.literal4+0x2cd> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,200 // add %cl,%al .byte 66,0,0 // rex.X add %al,(%rax) .byte 127,67 // jg 6aef <.literal4+0x2c7> .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx) .byte 13,60,111,18,3 // or $0x3126f3c,%eax .byte 59,10 // cmp (%rdx),%ecx .byte 215 // xlat %ds:(%rbx) .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b .byte 190,80,128,3,62 // mov $0x3e038050,%esi .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 6b0f <.literal4+0x2e7> .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 129,128,128,59,0,0,128,63,129,128 // addl $0x80813f80,0x3b80(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,128,63,129,128,128 // add %al,-0x7f7f7ec1(%rax) .byte 59,0 // cmp (%rax),%eax .byte 0,128,63,0,248,0 // add %al,0xf8003f(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,132,55,224,7,0,0 // and %eax,0x7e0(%rdi,%rsi,1) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 6b29 <.literal4+0x301> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 6b45 <.literal4+0x31d> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1) .byte 0,0 // add %al,(%rax) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 124,66 // jl 6b9a <.literal4+0x372> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,240 // mov %ecx,-0xfffc278(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,240 // mov %ecx,-0xfffc278(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax) .byte 112,65 // jo 6bfd <.literal4+0x3d5> .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 255 // (bad) .byte 127,71 // jg 6c33 <.literal4+0x40b> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,191,0,0,0 // add %al,0xbf(%rax) .byte 63 // (bad) .byte 208 // (bad) .byte 179,89 // mov $0x59,%bl .byte 62,89 // ds pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 152 // cwtl .byte 221,147,61,18,120,57 // fstl 0x3978123d(%rbx) .byte 64,45,16,17,192,32 // rex sub $0x20c01110,%eax .byte 148 // xchg %eax,%esp .byte 90 // pop %rdx .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,0,24 // add %bl,%ds:(%rax) .byte 161,57,1,0,0,0,111,43,231 // movabs 0xe72b6f0000000139,%eax .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx .byte 212 // (bad) .byte 100,84 // fs push %rsp .byte 189,169,240,34,62 // mov $0x3e22f0a9,%ebp .byte 0,0 // add %al,(%rax) .byte 128,62,0 // cmpb $0x0,(%rsi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,128,63,171 // sarb $0xab,0x3f800000(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,63,85 // sarb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,0,63 // mov $0x3f000000,%edi .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,63,85 // sarb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,57,142,99,61 // mov $0x3d638e39,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,171 // sarb $0xab,(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,128,63,171 // sarb $0xab,0x3f800000(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,63,85 // sarb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,0,63 // mov $0x3f000000,%edi .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,63,85 // sarb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,57,142,99,61 // mov $0x3d638e39,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,171 // sarb $0xab,(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi .byte 114,249 // jb 6d07 <.literal4+0x4df> .byte 127,63 // jg 6d4f <_sk_clut_4D_hsw+0xdc5> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 114,249 // jb 6d17 <.literal4+0x4ef> .byte 127,63 // jg 6d5f <_sk_clut_4D_hsw+0xdd5> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128 // .byte 0x80 .byte 63 // (bad) BALIGN32 .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006d68 <_sk_clut_4D_hsw+0xa000dde> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006d70 <_sk_clut_4D_hsw+0x12000de6> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006d78 <_sk_clut_4D_hsw+0x1a000dee> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006d80 <_sk_clut_4D_hsw+0x3000df6> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006dc8 <_sk_clut_4D_hsw+0xa000e3e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006dd0 <_sk_clut_4D_hsw+0x12000e46> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006dd8 <_sk_clut_4D_hsw+0x1a000e4e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006de0 <_sk_clut_4D_hsw+0x3000e56> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006e28 <_sk_clut_4D_hsw+0xa000e9e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006e30 <_sk_clut_4D_hsw+0x12000ea6> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006e38 <_sk_clut_4D_hsw+0x1a000eae> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006e40 <_sk_clut_4D_hsw+0x3000eb6> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006e88 <_sk_clut_4D_hsw+0xa000efe> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006e90 <_sk_clut_4D_hsw+0x12000f06> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006e98 <_sk_clut_4D_hsw+0x1a000f0e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006ea0 <_sk_clut_4D_hsw+0x3000f16> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006ee8 <_sk_clut_4D_hsw+0xa000f5e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006ef0 <_sk_clut_4D_hsw+0x12000f66> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006ef8 <_sk_clut_4D_hsw+0x1a000f6e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006f00 <_sk_clut_4D_hsw+0x3000f76> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006f48 <_sk_clut_4D_hsw+0xa000fbe> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006f50 <_sk_clut_4D_hsw+0x12000fc6> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006f58 <_sk_clut_4D_hsw+0x1a000fce> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006f60 <_sk_clut_4D_hsw+0x3000fd6> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a006fa8 <_sk_clut_4D_hsw+0xa00101e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12006fb0 <_sk_clut_4D_hsw+0x12001026> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a006fb8 <_sk_clut_4D_hsw+0x1a00102e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3006fc0 <_sk_clut_4D_hsw+0x3001036> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007008 <_sk_clut_4D_hsw+0xa00107e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12007010 <_sk_clut_4D_hsw+0x12001086> .byte 255 // (bad) .byte 255 // (bad) .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a007018 <_sk_clut_4D_hsw+0x1a00108e> .byte 255 // (bad) .byte 255 // (bad) .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3007020 <_sk_clut_4D_hsw+0x3001096> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,18 // callq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,22 // callq *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff BALIGN16 .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,2 // add %al,(%rdx) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) BALIGN32 HIDDEN _sk_start_pipeline_avx .globl _sk_start_pipeline_avx FUNCTION(_sk_start_pipeline_avx) _sk_start_pipeline_avx: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,40 // sub $0x28,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,137,194 // mov %rax,%rdx .byte 72,137,77,176 // mov %rcx,-0x50(%rbp) .byte 73,57,206 // cmp %rcx,%r14 .byte 115,117 // jae a1 <_sk_start_pipeline_avx+0xa1> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,77,192 // mov %r9,-0x40(%rbp) .byte 72,137,85,200 // mov %rdx,-0x38(%rbp) .byte 73,137,221 // mov %rbx,%r13 .byte 73,137,244 // mov %rsi,%r12 .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 72,57,93,184 // cmp %rbx,-0x48(%rbp) .byte 119,45 // ja 7d <_sk_start_pipeline_avx+0x7d> .byte 76,139,125,208 // mov -0x30(%rbp),%r15 .byte 69,49,192 // xor %r8d,%r8d .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,250 // mov %r15,%rdx .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,141,87,8 // lea 0x8(%r15),%rdx .byte 73,131,199,16 // add $0x10,%r15 .byte 73,57,223 // cmp %rbx,%r15 .byte 73,137,215 // mov %rdx,%r15 .byte 118,215 // jbe 54 <_sk_start_pipeline_avx+0x54> .byte 73,137,216 // mov %rbx,%r8 .byte 73,41,208 // sub %rdx,%r8 .byte 116,19 // je 98 <_sk_start_pipeline_avx+0x98> .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,255,198 // inc %r14 .byte 76,59,117,176 // cmp -0x50(%rbp),%r14 .byte 117,165 // jne 46 <_sk_start_pipeline_avx+0x46> .byte 72,131,196,40 // add $0x28,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 197,248,119 // vzeroupper .byte 195 // retq HIDDEN _sk_just_return_avx .globl _sk_just_return_avx FUNCTION(_sk_just_return_avx) _sk_just_return_avx: .byte 195 // retq HIDDEN _sk_seed_shader_avx .globl _sk_seed_shader_avx FUNCTION(_sk_seed_shader_avx) _sk_seed_shader_avx: .byte 197,249,110,194 // vmovd %edx,%xmm0 .byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,236,172,0,0 // vbroadcastss 0xacec(%rip),%ymm1 # adbc <_sk_clut_4D_avx+0x2125> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,88,7 // vaddps (%rdi),%ymm0,%ymm0 .byte 197,249,110,209 // vmovd %ecx,%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,21,198,172,0,0 // vbroadcastss 0xacc6(%rip),%ymm2 # adc0 <_sk_clut_4D_avx+0x2129> .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6 .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_dither_avx .globl _sk_dither_avx FUNCTION(_sk_dither_avx) _sk_dither_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,16,71,32 // vmovups 0x20(%rdi),%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 197,121,110,210 // vmovd %edx,%xmm10 .byte 196,65,121,112,210,0 // vpshufd $0x0,%xmm10,%xmm10 .byte 196,65,49,254,202 // vpaddd %xmm10,%xmm9,%xmm9 .byte 196,65,57,254,194 // vpaddd %xmm10,%xmm8,%xmm8 .byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8 .byte 197,121,110,201 // vmovd %ecx,%xmm9 .byte 196,65,121,112,201,0 // vpshufd $0x0,%xmm9,%xmm9 .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9 .byte 196,65,52,87,208 // vxorps %ymm8,%ymm9,%ymm10 .byte 196,98,125,24,29,111,172,0,0 // vbroadcastss 0xac6f(%rip),%ymm11 # adc4 <_sk_clut_4D_avx+0x212d> .byte 196,65,44,84,203 // vandps %ymm11,%ymm10,%ymm9 .byte 196,193,25,114,241,5 // vpslld $0x5,%xmm9,%xmm12 .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 .byte 196,193,49,114,241,5 // vpslld $0x5,%xmm9,%xmm9 .byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9 .byte 196,65,60,84,219 // vandps %ymm11,%ymm8,%ymm11 .byte 196,193,25,114,243,4 // vpslld $0x4,%xmm11,%xmm12 .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11 .byte 196,193,33,114,243,4 // vpslld $0x4,%xmm11,%xmm11 .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11 .byte 196,98,125,24,37,48,172,0,0 // vbroadcastss 0xac30(%rip),%ymm12 # adc8 <_sk_clut_4D_avx+0x2131> .byte 196,98,125,24,45,43,172,0,0 // vbroadcastss 0xac2b(%rip),%ymm13 # adcc <_sk_clut_4D_avx+0x2135> .byte 196,65,44,84,245 // vandps %ymm13,%ymm10,%ymm14 .byte 196,193,1,114,246,2 // vpslld $0x2,%xmm14,%xmm15 .byte 196,67,125,25,246,1 // vextractf128 $0x1,%ymm14,%xmm14 .byte 196,193,9,114,246,2 // vpslld $0x2,%xmm14,%xmm14 .byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14 .byte 196,65,60,84,237 // vandps %ymm13,%ymm8,%ymm13 .byte 196,65,17,254,253 // vpaddd %xmm13,%xmm13,%xmm15 .byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13 .byte 196,65,17,254,237 // vpaddd %xmm13,%xmm13,%xmm13 .byte 196,67,5,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm15,%ymm13 .byte 196,65,44,84,212 // vandps %ymm12,%ymm10,%ymm10 .byte 196,193,1,114,210,1 // vpsrld $0x1,%xmm10,%xmm15 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,210,1 // vpsrld $0x1,%xmm10,%xmm10 .byte 196,67,5,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm15,%ymm10 .byte 196,65,60,84,196 // vandps %ymm12,%ymm8,%ymm8 .byte 196,193,25,114,208,2 // vpsrld $0x2,%xmm8,%xmm12 .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 .byte 196,193,57,114,208,2 // vpsrld $0x2,%xmm8,%xmm8 .byte 196,67,29,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm12,%ymm8 .byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11 .byte 196,65,36,86,192 // vorps %ymm8,%ymm11,%ymm8 .byte 196,65,52,86,206 // vorps %ymm14,%ymm9,%ymm9 .byte 196,65,60,86,193 // vorps %ymm9,%ymm8,%ymm8 .byte 196,65,60,86,194 // vorps %ymm10,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,13,150,171,0,0 // vbroadcastss 0xab96(%rip),%ymm9 # add0 <_sk_clut_4D_avx+0x2139> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,13,140,171,0,0 // vbroadcastss 0xab8c(%rip),%ymm9 # add4 <_sk_clut_4D_avx+0x213d> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2 .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2 .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_uniform_color_avx .globl _sk_uniform_color_avx FUNCTION(_sk_uniform_color_avx) _sk_uniform_color_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0 .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1 .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2 .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_avx .globl _sk_black_color_avx FUNCTION(_sk_black_color_avx) _sk_black_color_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,44,171,0,0 // vbroadcastss 0xab2c(%rip),%ymm3 # add8 <_sk_clut_4D_avx+0x2141> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_avx .globl _sk_white_color_avx FUNCTION(_sk_white_color_avx) _sk_white_color_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,23,171,0,0 // vbroadcastss 0xab17(%rip),%ymm0 # addc <_sk_clut_4D_avx+0x2145> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_rgba_avx .globl _sk_load_rgba_avx FUNCTION(_sk_load_rgba_avx) _sk_load_rgba_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1 .byte 197,252,16,80,64 // vmovups 0x40(%rax),%ymm2 .byte 197,252,16,88,96 // vmovups 0x60(%rax),%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_rgba_avx .globl _sk_store_rgba_avx FUNCTION(_sk_store_rgba_avx) _sk_store_rgba_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,17,0 // vmovups %ymm0,(%rax) .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax) .byte 197,252,17,80,64 // vmovups %ymm2,0x40(%rax) .byte 197,252,17,88,96 // vmovups %ymm3,0x60(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_avx .globl _sk_clear_avx FUNCTION(_sk_clear_avx) _sk_clear_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_avx .globl _sk_srcatop_avx FUNCTION(_sk_srcatop_avx) _sk_srcatop_avx: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 196,98,125,24,5,186,170,0,0 // vbroadcastss 0xaaba(%rip),%ymm8 # ade0 <_sk_clut_4D_avx+0x2149> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,60,89,205 // vmulps %ymm5,%ymm8,%ymm9 .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,60,89,206 // vmulps %ymm6,%ymm8,%ymm9 .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_avx .globl _sk_dstatop_avx FUNCTION(_sk_dstatop_avx) _sk_dstatop_avx: .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 .byte 196,98,125,24,13,124,170,0,0 // vbroadcastss 0xaa7c(%rip),%ymm9 # ade4 <_sk_clut_4D_avx+0x214d> .byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 197,100,89,197 // vmulps %ymm5,%ymm3,%ymm8 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 197,100,89,198 // vmulps %ymm6,%ymm3,%ymm8 .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2 .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2 .byte 197,100,89,199 // vmulps %ymm7,%ymm3,%ymm8 .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_avx .globl _sk_srcin_avx FUNCTION(_sk_srcin_avx) _sk_srcin_avx: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_avx .globl _sk_dstin_avx FUNCTION(_sk_dstin_avx) _sk_dstin_avx: .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_avx .globl _sk_srcout_avx FUNCTION(_sk_srcout_avx) _sk_srcout_avx: .byte 196,98,125,24,5,27,170,0,0 // vbroadcastss 0xaa1b(%rip),%ymm8 # ade8 <_sk_clut_4D_avx+0x2151> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_avx .globl _sk_dstout_avx FUNCTION(_sk_dstout_avx) _sk_dstout_avx: .byte 196,226,125,24,5,254,169,0,0 // vbroadcastss 0xa9fe(%rip),%ymm0 # adec <_sk_clut_4D_avx+0x2155> .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3 .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_avx .globl _sk_srcover_avx FUNCTION(_sk_srcover_avx) _sk_srcover_avx: .byte 196,98,125,24,5,225,169,0,0 // vbroadcastss 0xa9e1(%rip),%ymm8 # adf0 <_sk_clut_4D_avx+0x2159> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 197,60,89,205 // vmulps %ymm5,%ymm8,%ymm9 .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1 .byte 197,60,89,206 // vmulps %ymm6,%ymm8,%ymm9 .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_avx .globl _sk_dstover_avx FUNCTION(_sk_dstover_avx) _sk_dstover_avx: .byte 196,98,125,24,5,180,169,0,0 // vbroadcastss 0xa9b4(%rip),%ymm8 # adf4 <_sk_clut_4D_avx+0x215d> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_avx .globl _sk_modulate_avx FUNCTION(_sk_modulate_avx) _sk_modulate_avx: .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1 .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_avx .globl _sk_multiply_avx FUNCTION(_sk_multiply_avx) _sk_multiply_avx: .byte 196,98,125,24,5,115,169,0,0 // vbroadcastss 0xa973(%rip),%ymm8 # adf8 <_sk_clut_4D_avx+0x2161> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11 .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10 .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10 .byte 197,60,89,221 // vmulps %ymm5,%ymm8,%ymm11 .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10 .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 197,52,89,210 // vmulps %ymm2,%ymm9,%ymm10 .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11 .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10 .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_plus__avx .globl _sk_plus__avx FUNCTION(_sk_plus__avx) _sk_plus__avx: .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_avx .globl _sk_screen_avx FUNCTION(_sk_screen_avx) _sk_screen_avx: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 197,100,88,199 // vaddps %ymm7,%ymm3,%ymm8 .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__avx .globl _sk_xor__avx FUNCTION(_sk_xor__avx) _sk_xor__avx: .byte 196,98,125,24,5,194,168,0,0 // vbroadcastss 0xa8c2(%rip),%ymm8 # adfc <_sk_clut_4D_avx+0x2165> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10 .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10 .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1 .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2 .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_darken_avx .globl _sk_darken_avx FUNCTION(_sk_darken_avx) _sk_darken_avx: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 196,193,124,95,193 // vmaxps %ymm9,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,193,116,95,201 // vmaxps %ymm9,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,66,168,0,0 // vbroadcastss 0xa842(%rip),%ymm8 # ae00 <_sk_clut_4D_avx+0x2169> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lighten_avx .globl _sk_lighten_avx FUNCTION(_sk_lighten_avx) _sk_lighten_avx: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,238,167,0,0 // vbroadcastss 0xa7ee(%rip),%ymm8 # ae04 <_sk_clut_4D_avx+0x216d> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_difference_avx .globl _sk_difference_avx FUNCTION(_sk_difference_avx) _sk_difference_avx: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2 .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,142,167,0,0 // vbroadcastss 0xa78e(%rip),%ymm8 # ae08 <_sk_clut_4D_avx+0x2171> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_exclusion_avx .globl _sk_exclusion_avx FUNCTION(_sk_exclusion_avx) _sk_exclusion_avx: .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8 .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8 .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8 .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 196,98,125,24,5,73,167,0,0 // vbroadcastss 0xa749(%rip),%ymm8 # ae0c <_sk_clut_4D_avx+0x2175> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_colorburn_avx .globl _sk_colorburn_avx FUNCTION(_sk_colorburn_avx) _sk_colorburn_avx: .byte 196,98,125,24,5,52,167,0,0 // vbroadcastss 0xa734(%rip),%ymm8 # ae10 <_sk_clut_4D_avx+0x2179> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,228 // vmulps %ymm4,%ymm8,%ymm12 .byte 197,68,92,236 // vsubps %ymm4,%ymm7,%ymm13 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 197,20,94,232 // vdivps %ymm0,%ymm13,%ymm13 .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13 .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 196,65,36,88,237 // vaddps %ymm13,%ymm11,%ymm13 .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13 .byte 197,28,88,224 // vaddps %ymm0,%ymm12,%ymm12 .byte 196,193,124,194,194,0 // vcmpeqps %ymm10,%ymm0,%ymm0 .byte 196,195,21,74,196,0 // vblendvps %ymm0,%ymm12,%ymm13,%ymm0 .byte 197,92,194,231,0 // vcmpeqps %ymm7,%ymm4,%ymm12 .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11 .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0 .byte 197,52,89,217 // vmulps %ymm1,%ymm9,%ymm11 .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12 .byte 197,68,92,237 // vsubps %ymm5,%ymm7,%ymm13 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 197,20,94,233 // vdivps %ymm1,%ymm13,%ymm13 .byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13 .byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 196,65,36,88,237 // vaddps %ymm13,%ymm11,%ymm13 .byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13 .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12 .byte 196,193,116,194,202,0 // vcmpeqps %ymm10,%ymm1,%ymm1 .byte 196,195,21,74,204,16 // vblendvps %ymm1,%ymm12,%ymm13,%ymm1 .byte 197,84,194,231,0 // vcmpeqps %ymm7,%ymm5,%ymm12 .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11 .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1 .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9 .byte 196,65,108,194,210,0 // vcmpeqps %ymm10,%ymm2,%ymm10 .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11 .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12 .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12 .byte 197,28,94,226 // vdivps %ymm2,%ymm12,%ymm12 .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2 .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12 .byte 196,65,68,92,228 // vsubps %ymm12,%ymm7,%ymm12 .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12 .byte 196,65,52,88,228 // vaddps %ymm12,%ymm9,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,227,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm2 .byte 197,76,194,215,0 // vcmpeqps %ymm7,%ymm6,%ymm10 .byte 197,52,88,206 // vaddps %ymm6,%ymm9,%ymm9 .byte 196,195,109,74,209,160 // vblendvps %ymm10,%ymm9,%ymm2,%ymm2 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_colordodge_avx .globl _sk_colordodge_avx FUNCTION(_sk_colordodge_avx) _sk_colordodge_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,98,125,24,13,48,166,0,0 // vbroadcastss 0xa630(%rip),%ymm9 # ae14 <_sk_clut_4D_avx+0x217d> .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 .byte 197,100,89,228 // vmulps %ymm4,%ymm3,%ymm12 .byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13 .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12 .byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13 .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12 .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12 .byte 196,65,36,88,228 // vaddps %ymm12,%ymm11,%ymm12 .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12 .byte 197,20,88,232 // vaddps %ymm0,%ymm13,%ymm13 .byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0 .byte 196,195,29,74,197,0 // vblendvps %ymm0,%ymm13,%ymm12,%ymm0 .byte 196,65,92,194,224,0 // vcmpeqps %ymm8,%ymm4,%ymm12 .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11 .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0 .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11 .byte 197,100,89,229 // vmulps %ymm5,%ymm3,%ymm12 .byte 197,100,92,233 // vsubps %ymm1,%ymm3,%ymm13 .byte 196,65,28,94,229 // vdivps %ymm13,%ymm12,%ymm12 .byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13 .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12 .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12 .byte 196,65,36,88,228 // vaddps %ymm12,%ymm11,%ymm12 .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12 .byte 197,20,88,233 // vaddps %ymm1,%ymm13,%ymm13 .byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1 .byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1 .byte 196,65,84,194,224,0 // vcmpeqps %ymm8,%ymm5,%ymm12 .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11 .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 .byte 197,100,92,226 // vsubps %ymm2,%ymm3,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 197,52,89,230 // vmulps %ymm6,%ymm9,%ymm12 .byte 196,65,68,93,219 // vminps %ymm11,%ymm7,%ymm11 .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11 .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11 .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11 .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12 .byte 197,236,194,211,0 // vcmpeqps %ymm3,%ymm2,%ymm2 .byte 196,195,37,74,212,32 // vblendvps %ymm2,%ymm12,%ymm11,%ymm2 .byte 196,65,76,194,192,0 // vcmpeqps %ymm8,%ymm6,%ymm8 .byte 197,44,88,214 // vaddps %ymm6,%ymm10,%ymm10 .byte 196,195,109,74,210,128 // vblendvps %ymm8,%ymm10,%ymm2,%ymm2 .byte 197,52,89,199 // vmulps %ymm7,%ymm9,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hardlight_avx .globl _sk_hardlight_avx FUNCTION(_sk_hardlight_avx) _sk_hardlight_avx: .byte 196,98,125,24,5,66,165,0,0 // vbroadcastss 0xa542(%rip),%ymm8 # ae18 <_sk_clut_4D_avx+0x2181> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11 .byte 196,65,36,88,217 // vaddps %ymm9,%ymm11,%ymm11 .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9 .byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12 .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9 .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13 .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9 .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14 .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0 .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0 .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11 .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12 .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11 .byte 197,116,88,225 // vaddps %ymm1,%ymm1,%ymm12 .byte 197,28,194,227,2 // vcmpleps %ymm3,%ymm12,%ymm12 .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13 .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13 .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14 .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1 .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1 .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11 .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10 .byte 197,108,88,218 // vaddps %ymm2,%ymm2,%ymm11 .byte 197,36,194,219,2 // vcmpleps %ymm3,%ymm11,%ymm11 .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12 .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12 .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13 .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2 .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2 .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_overlay_avx .globl _sk_overlay_avx FUNCTION(_sk_overlay_avx) _sk_overlay_avx: .byte 196,98,125,24,5,107,164,0,0 // vbroadcastss 0xa46b(%rip),%ymm8 # ae1c <_sk_clut_4D_avx+0x2185> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11 .byte 196,65,36,88,217 // vaddps %ymm9,%ymm11,%ymm11 .byte 197,92,88,204 // vaddps %ymm4,%ymm4,%ymm9 .byte 197,52,194,231,2 // vcmpleps %ymm7,%ymm9,%ymm12 .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9 .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13 .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9 .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14 .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0 .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0 .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11 .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12 .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11 .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12 .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12 .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13 .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13 .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14 .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1 .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1 .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1 .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1 .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11 .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10 .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11 .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11 .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12 .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12 .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13 .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2 .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2 .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_softlight_avx .globl _sk_softlight_avx FUNCTION(_sk_softlight_avx) _sk_softlight_avx: .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp) .byte 197,252,40,209 // vmovaps %ymm1,%ymm2 .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 197,52,194,215,1 // vcmpltps %ymm7,%ymm9,%ymm10 .byte 197,92,94,199 // vdivps %ymm7,%ymm4,%ymm8 .byte 196,67,53,74,224,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm12 .byte 196,65,28,88,196 // vaddps %ymm12,%ymm12,%ymm8 .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8 .byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11 .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8 .byte 196,98,125,24,29,98,163,0,0 // vbroadcastss 0xa362(%rip),%ymm11 # ae24 <_sk_clut_4D_avx+0x218d> .byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13 .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8 .byte 196,98,125,24,45,83,163,0,0 // vbroadcastss 0xa353(%rip),%ymm13 # ae28 <_sk_clut_4D_avx+0x2191> .byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14 .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8 .byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14 .byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14 .byte 196,65,12,92,244 // vsubps %ymm12,%ymm14,%ymm14 .byte 197,92,88,252 // vaddps %ymm4,%ymm4,%ymm15 .byte 196,65,4,88,255 // vaddps %ymm15,%ymm15,%ymm15 .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15 .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14 .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15 .byte 196,98,125,24,5,17,163,0,0 // vbroadcastss 0xa311(%rip),%ymm8 # ae20 <_sk_clut_4D_avx+0x2189> .byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12 .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0 .byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 197,100,89,244 // vmulps %ymm4,%ymm3,%ymm14 .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0 .byte 197,28,88,227 // vaddps %ymm3,%ymm12,%ymm12 .byte 197,28,89,228 // vmulps %ymm4,%ymm12,%ymm12 .byte 197,4,194,243,2 // vcmpleps %ymm3,%ymm15,%ymm14 .byte 196,195,125,74,196,224 // vblendvps %ymm14,%ymm12,%ymm0,%ymm0 .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp) .byte 197,212,94,199 // vdivps %ymm7,%ymm5,%ymm0 .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0 .byte 197,124,88,240 // vaddps %ymm0,%ymm0,%ymm14 .byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14 .byte 196,65,12,89,254 // vmulps %ymm14,%ymm14,%ymm15 .byte 196,65,12,88,247 // vaddps %ymm15,%ymm14,%ymm14 .byte 196,65,124,88,251 // vaddps %ymm11,%ymm0,%ymm15 .byte 196,65,4,89,246 // vmulps %ymm14,%ymm15,%ymm14 .byte 196,65,124,89,253 // vmulps %ymm13,%ymm0,%ymm15 .byte 196,65,4,88,246 // vaddps %ymm14,%ymm15,%ymm14 .byte 197,124,82,248 // vrsqrtps %ymm0,%ymm15 .byte 196,65,124,83,255 // vrcpps %ymm15,%ymm15 .byte 197,4,92,248 // vsubps %ymm0,%ymm15,%ymm15 .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12 .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12 .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12 .byte 196,67,5,74,230,192 // vblendvps %ymm12,%ymm14,%ymm15,%ymm12 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14 .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15 .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0 .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15 .byte 196,65,4,89,228 // vmulps %ymm12,%ymm15,%ymm12 .byte 197,100,89,253 // vmulps %ymm5,%ymm3,%ymm15 .byte 196,65,4,88,228 // vaddps %ymm12,%ymm15,%ymm12 .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0 .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0 .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14 .byte 196,99,29,74,240,224 // vblendvps %ymm14,%ymm0,%ymm12,%ymm14 .byte 197,204,94,199 // vdivps %ymm7,%ymm6,%ymm0 .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0 .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 .byte 196,65,52,89,209 // vmulps %ymm9,%ymm9,%ymm10 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,124,88,211 // vaddps %ymm11,%ymm0,%ymm10 .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9 .byte 196,65,124,89,213 // vmulps %ymm13,%ymm0,%ymm10 .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9 .byte 197,124,82,208 // vrsqrtps %ymm0,%ymm10 .byte 196,65,124,83,210 // vrcpps %ymm10,%ymm10 .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11 .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11 .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11 .byte 196,67,45,74,201,176 // vblendvps %ymm11,%ymm9,%ymm10,%ymm9 .byte 197,124,16,100,36,200 // vmovups -0x38(%rsp),%ymm12 .byte 196,65,28,88,212 // vaddps %ymm12,%ymm12,%ymm10 .byte 197,44,92,219 // vsubps %ymm3,%ymm10,%ymm11 .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 .byte 197,36,89,223 // vmulps %ymm7,%ymm11,%ymm11 .byte 196,65,36,89,201 // vmulps %ymm9,%ymm11,%ymm9 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 .byte 196,65,36,88,201 // vaddps %ymm9,%ymm11,%ymm9 .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0 .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0 .byte 197,44,194,211,2 // vcmpleps %ymm3,%ymm10,%ymm10 .byte 196,99,53,74,200,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm9 .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,188,89,204 // vmulps %ymm4,%ymm8,%ymm1 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,252,88,68,36,168 // vaddps -0x58(%rsp),%ymm0,%ymm0 .byte 197,172,89,202 // vmulps %ymm2,%ymm10,%ymm1 .byte 197,188,89,213 // vmulps %ymm5,%ymm8,%ymm2 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 196,193,116,88,206 // vaddps %ymm14,%ymm1,%ymm1 .byte 196,193,44,89,212 // vmulps %ymm12,%ymm10,%ymm2 .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hue_avx .globl _sk_hue_avx FUNCTION(_sk_hue_avx) _sk_hue_avx: .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp) .byte 197,124,40,193 // vmovaps %ymm1,%ymm8 .byte 197,124,17,68,36,168 // vmovups %ymm8,-0x58(%rsp) .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,116,89,203 // vmulps %ymm3,%ymm1,%ymm9 .byte 197,60,89,211 // vmulps %ymm3,%ymm8,%ymm10 .byte 197,108,89,219 // vmulps %ymm3,%ymm2,%ymm11 .byte 197,84,95,198 // vmaxps %ymm6,%ymm5,%ymm8 .byte 196,65,92,95,192 // vmaxps %ymm8,%ymm4,%ymm8 .byte 197,84,93,230 // vminps %ymm6,%ymm5,%ymm12 .byte 196,65,92,93,228 // vminps %ymm12,%ymm4,%ymm12 .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8 .byte 197,60,89,227 // vmulps %ymm3,%ymm8,%ymm12 .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8 .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13 .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8 .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8 .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15 .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9 .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9 .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9 .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9 .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10 .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,67,45,74,208,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm10 .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11 .byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12 .byte 196,98,125,24,53,224,160,0,0 // vbroadcastss 0xa0e0(%rip),%ymm14 # ae2c <_sk_clut_4D_avx+0x2195> .byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11 .byte 196,98,125,24,61,214,160,0,0 // vbroadcastss 0xa0d6(%rip),%ymm15 # ae30 <_sk_clut_4D_avx+0x2199> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 .byte 196,226,125,24,5,199,160,0,0 // vbroadcastss 0xa0c7(%rip),%ymm0 # ae34 <_sk_clut_4D_avx+0x219d> .byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 .byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13 .byte 196,193,44,89,215 // vmulps %ymm15,%ymm10,%ymm2 .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2 .byte 197,28,89,232 // vmulps %ymm0,%ymm12,%ymm13 .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2 .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11 .byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2 .byte 197,52,88,202 // vaddps %ymm2,%ymm9,%ymm9 .byte 197,44,88,218 // vaddps %ymm2,%ymm10,%ymm11 .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12 .byte 196,193,36,93,212 // vminps %ymm12,%ymm11,%ymm2 .byte 197,52,93,234 // vminps %ymm2,%ymm9,%ymm13 .byte 196,193,52,89,214 // vmulps %ymm14,%ymm9,%ymm2 .byte 196,65,36,89,215 // vmulps %ymm15,%ymm11,%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0 .byte 197,124,88,210 // vaddps %ymm2,%ymm0,%ymm10 .byte 196,193,52,92,194 // vsubps %ymm10,%ymm9,%ymm0 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 196,193,44,92,213 // vsubps %ymm13,%ymm10,%ymm2 .byte 197,252,94,194 // vdivps %ymm2,%ymm0,%ymm0 .byte 196,65,36,92,242 // vsubps %ymm10,%ymm11,%ymm14 .byte 196,65,44,89,246 // vmulps %ymm14,%ymm10,%ymm14 .byte 197,12,94,242 // vdivps %ymm2,%ymm14,%ymm14 .byte 196,65,28,92,250 // vsubps %ymm10,%ymm12,%ymm15 .byte 196,65,44,89,255 // vmulps %ymm15,%ymm10,%ymm15 .byte 197,132,94,210 // vdivps %ymm2,%ymm15,%ymm2 .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13 .byte 196,65,44,88,246 // vaddps %ymm14,%ymm10,%ymm14 .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14 .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 196,195,109,74,212,208 // vblendvps %ymm13,%ymm12,%ymm2,%ymm2 .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0 .byte 196,195,125,74,193,208 // vblendvps %ymm13,%ymm9,%ymm0,%ymm0 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,52,95,203 // vmaxps %ymm11,%ymm9,%ymm9 .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11 .byte 196,65,28,92,234 // vsubps %ymm10,%ymm12,%ymm13 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,28,194,249,1 // vcmpltps %ymm9,%ymm12,%ymm15 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11 .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11 .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0 .byte 196,65,12,92,218 // vsubps %ymm10,%ymm14,%ymm11 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11 .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11 .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11 .byte 196,65,108,92,242 // vsubps %ymm10,%ymm2,%ymm14 .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9 .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10 .byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 .byte 196,98,125,24,5,160,159,0,0 // vbroadcastss 0x9fa0(%rip),%ymm8 # ae38 <_sk_clut_4D_avx+0x21a1> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,180,89,76,36,168 // vmulps -0x58(%rsp),%ymm9,%ymm1 .byte 197,60,89,221 // vmulps %ymm5,%ymm8,%ymm11 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 197,52,89,76,36,200 // vmulps -0x38(%rsp),%ymm9,%ymm9 .byte 197,60,89,198 // vmulps %ymm6,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_saturation_avx .globl _sk_saturation_avx FUNCTION(_sk_saturation_avx) _sk_saturation_avx: .byte 197,124,40,193 // vmovaps %ymm1,%ymm8 .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9 .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp) .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp) .byte 197,124,95,194 // vmaxps %ymm2,%ymm0,%ymm8 .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8 .byte 197,124,93,226 // vminps %ymm2,%ymm0,%ymm12 .byte 196,65,116,93,228 // vminps %ymm12,%ymm1,%ymm12 .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8 .byte 197,60,89,231 // vmulps %ymm7,%ymm8,%ymm12 .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8 .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13 .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8 .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8 .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15 .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9 .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9 .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9 .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9 .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10 .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,67,45,74,208,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm10 .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11 .byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12 .byte 196,98,125,24,53,174,158,0,0 // vbroadcastss 0x9eae(%rip),%ymm14 # ae3c <_sk_clut_4D_avx+0x21a5> .byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11 .byte 196,98,125,24,61,164,158,0,0 // vbroadcastss 0x9ea4(%rip),%ymm15 # ae40 <_sk_clut_4D_avx+0x21a9> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 .byte 196,226,125,24,5,149,158,0,0 // vbroadcastss 0x9e95(%rip),%ymm0 # ae44 <_sk_clut_4D_avx+0x21ad> .byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 .byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13 .byte 196,193,44,89,215 // vmulps %ymm15,%ymm10,%ymm2 .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2 .byte 197,28,89,232 // vmulps %ymm0,%ymm12,%ymm13 .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2 .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11 .byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2 .byte 197,52,88,202 // vaddps %ymm2,%ymm9,%ymm9 .byte 197,44,88,218 // vaddps %ymm2,%ymm10,%ymm11 .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12 .byte 196,193,36,93,212 // vminps %ymm12,%ymm11,%ymm2 .byte 197,52,93,234 // vminps %ymm2,%ymm9,%ymm13 .byte 196,193,52,89,214 // vmulps %ymm14,%ymm9,%ymm2 .byte 196,65,36,89,215 // vmulps %ymm15,%ymm11,%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0 .byte 197,124,88,210 // vaddps %ymm2,%ymm0,%ymm10 .byte 196,193,52,92,194 // vsubps %ymm10,%ymm9,%ymm0 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 196,193,44,92,213 // vsubps %ymm13,%ymm10,%ymm2 .byte 197,252,94,194 // vdivps %ymm2,%ymm0,%ymm0 .byte 196,65,36,92,242 // vsubps %ymm10,%ymm11,%ymm14 .byte 196,65,44,89,246 // vmulps %ymm14,%ymm10,%ymm14 .byte 197,12,94,242 // vdivps %ymm2,%ymm14,%ymm14 .byte 196,65,28,92,250 // vsubps %ymm10,%ymm12,%ymm15 .byte 196,65,44,89,255 // vmulps %ymm15,%ymm10,%ymm15 .byte 197,132,94,210 // vdivps %ymm2,%ymm15,%ymm2 .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13 .byte 196,65,44,88,246 // vaddps %ymm14,%ymm10,%ymm14 .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14 .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 196,195,109,74,212,208 // vblendvps %ymm13,%ymm12,%ymm2,%ymm2 .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0 .byte 196,195,125,74,193,208 // vblendvps %ymm13,%ymm9,%ymm0,%ymm0 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,52,95,203 // vmaxps %ymm11,%ymm9,%ymm9 .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11 .byte 196,65,28,92,234 // vsubps %ymm10,%ymm12,%ymm13 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,28,194,249,1 // vcmpltps %ymm9,%ymm12,%ymm15 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11 .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11 .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0 .byte 196,65,12,92,218 // vsubps %ymm10,%ymm14,%ymm11 .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11 .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11 .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11 .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11 .byte 196,65,108,92,242 // vsubps %ymm10,%ymm2,%ymm14 .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9 .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10 .byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 .byte 196,98,125,24,5,110,157,0,0 // vbroadcastss 0x9d6e(%rip),%ymm8 # ae48 <_sk_clut_4D_avx+0x21b1> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,180,89,76,36,168 // vmulps -0x58(%rsp),%ymm9,%ymm1 .byte 197,60,89,221 // vmulps %ymm5,%ymm8,%ymm11 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 197,52,89,76,36,200 // vmulps -0x38(%rsp),%ymm9,%ymm9 .byte 197,60,89,198 // vmulps %ymm6,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_color_avx .globl _sk_color_avx FUNCTION(_sk_color_avx) _sk_color_avx: .byte 197,252,17,84,36,136 // vmovups %ymm2,-0x78(%rsp) .byte 197,252,17,76,36,200 // vmovups %ymm1,-0x38(%rsp) .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp) .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8 .byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9 .byte 196,98,125,24,45,4,157,0,0 // vbroadcastss 0x9d04(%rip),%ymm13 # ae4c <_sk_clut_4D_avx+0x21b5> .byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10 .byte 196,98,125,24,53,250,156,0,0 // vbroadcastss 0x9cfa(%rip),%ymm14 # ae50 <_sk_clut_4D_avx+0x21b9> .byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,98,125,24,61,235,156,0,0 // vbroadcastss 0x9ceb(%rip),%ymm15 # ae54 <_sk_clut_4D_avx+0x21bd> .byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11 .byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0 .byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11 .byte 196,65,52,89,230 // vmulps %ymm14,%ymm9,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 197,108,89,231 // vmulps %ymm7,%ymm2,%ymm12 .byte 196,65,28,89,215 // vmulps %ymm15,%ymm12,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 197,60,88,192 // vaddps %ymm0,%ymm8,%ymm8 .byte 197,52,88,208 // vaddps %ymm0,%ymm9,%ymm10 .byte 197,28,88,216 // vaddps %ymm0,%ymm12,%ymm11 .byte 196,193,44,93,195 // vminps %ymm11,%ymm10,%ymm0 .byte 197,60,93,224 // vminps %ymm0,%ymm8,%ymm12 .byte 196,193,60,89,197 // vmulps %ymm13,%ymm8,%ymm0 .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9 .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0 .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 .byte 196,193,60,92,193 // vsubps %ymm9,%ymm8,%ymm0 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 196,65,52,92,236 // vsubps %ymm12,%ymm9,%ymm13 .byte 196,193,124,94,197 // vdivps %ymm13,%ymm0,%ymm0 .byte 196,65,44,92,241 // vsubps %ymm9,%ymm10,%ymm14 .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14 .byte 196,65,12,94,245 // vdivps %ymm13,%ymm14,%ymm14 .byte 196,65,36,92,249 // vsubps %ymm9,%ymm11,%ymm15 .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15 .byte 196,65,4,94,237 // vdivps %ymm13,%ymm15,%ymm13 .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15 .byte 196,65,4,194,228,2 // vcmpleps %ymm12,%ymm15,%ymm12 .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14 .byte 196,67,13,74,242,192 // vblendvps %ymm12,%ymm10,%ymm14,%ymm14 .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10 .byte 196,65,52,88,237 // vaddps %ymm13,%ymm9,%ymm13 .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,200,192 // vblendvps %ymm12,%ymm8,%ymm0,%ymm1 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,60,95,194 // vmaxps %ymm10,%ymm8,%ymm8 .byte 196,65,116,92,209 // vsubps %ymm9,%ymm1,%ymm10 .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,193,28,194,192,1 // vcmpltps %ymm8,%ymm12,%ymm0 .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8 .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10 .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10 .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1 .byte 196,65,12,92,209 // vsubps %ymm9,%ymm14,%ymm10 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10 .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10 .byte 196,67,13,74,210,0 // vblendvps %ymm0,%ymm10,%ymm14,%ymm10 .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14 .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 .byte 196,65,20,94,192 // vdivps %ymm8,%ymm13,%ymm8 .byte 196,65,52,88,192 // vaddps %ymm8,%ymm9,%ymm8 .byte 196,193,116,95,207 // vmaxps %ymm15,%ymm1,%ymm1 .byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9 .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0 .byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8 .byte 196,226,125,24,5,178,155,0,0 // vbroadcastss 0x9bb2(%rip),%ymm0 # ae58 <_sk_clut_4D_avx+0x21c1> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 .byte 197,164,89,196 // vmulps %ymm4,%ymm11,%ymm0 .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0 .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,172,89,76,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm1 .byte 197,164,89,213 // vmulps %ymm5,%ymm11,%ymm2 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 197,172,89,84,36,136 // vmulps -0x78(%rsp),%ymm10,%ymm2 .byte 197,36,89,206 // vmulps %ymm6,%ymm11,%ymm9 .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2 .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_luminosity_avx .globl _sk_luminosity_avx FUNCTION(_sk_luminosity_avx) _sk_luminosity_avx: .byte 197,124,40,226 // vmovaps %ymm2,%ymm12 .byte 197,124,17,100,36,168 // vmovups %ymm12,-0x58(%rsp) .byte 197,252,17,76,36,200 // vmovups %ymm1,-0x38(%rsp) .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 196,98,125,24,45,68,155,0,0 // vbroadcastss 0x9b44(%rip),%ymm13 # ae5c <_sk_clut_4D_avx+0x21c5> .byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10 .byte 196,98,125,24,53,58,155,0,0 // vbroadcastss 0x9b3a(%rip),%ymm14 # ae60 <_sk_clut_4D_avx+0x21c9> .byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,98,125,24,61,43,155,0,0 // vbroadcastss 0x9b2b(%rip),%ymm15 # ae64 <_sk_clut_4D_avx+0x21cd> .byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11 .byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0 .byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11 .byte 196,65,52,89,230 // vmulps %ymm14,%ymm9,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 197,100,89,230 // vmulps %ymm6,%ymm3,%ymm12 .byte 196,65,28,89,215 // vmulps %ymm15,%ymm12,%ymm10 .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10 .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 197,60,88,192 // vaddps %ymm0,%ymm8,%ymm8 .byte 197,52,88,208 // vaddps %ymm0,%ymm9,%ymm10 .byte 197,28,88,216 // vaddps %ymm0,%ymm12,%ymm11 .byte 196,193,44,93,195 // vminps %ymm11,%ymm10,%ymm0 .byte 197,60,93,224 // vminps %ymm0,%ymm8,%ymm12 .byte 196,193,60,89,197 // vmulps %ymm13,%ymm8,%ymm0 .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9 .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0 .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 .byte 196,193,60,92,193 // vsubps %ymm9,%ymm8,%ymm0 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 196,65,52,92,236 // vsubps %ymm12,%ymm9,%ymm13 .byte 196,193,124,94,197 // vdivps %ymm13,%ymm0,%ymm0 .byte 196,65,44,92,241 // vsubps %ymm9,%ymm10,%ymm14 .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14 .byte 196,65,12,94,245 // vdivps %ymm13,%ymm14,%ymm14 .byte 196,65,36,92,249 // vsubps %ymm9,%ymm11,%ymm15 .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15 .byte 196,65,4,94,237 // vdivps %ymm13,%ymm15,%ymm13 .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15 .byte 196,65,4,194,228,2 // vcmpleps %ymm12,%ymm15,%ymm12 .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14 .byte 196,67,13,74,242,192 // vblendvps %ymm12,%ymm10,%ymm14,%ymm14 .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10 .byte 196,65,52,88,237 // vaddps %ymm13,%ymm9,%ymm13 .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 196,195,125,74,200,192 // vblendvps %ymm12,%ymm8,%ymm0,%ymm1 .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12 .byte 196,65,60,95,194 // vmaxps %ymm10,%ymm8,%ymm8 .byte 196,65,116,92,209 // vsubps %ymm9,%ymm1,%ymm10 .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,193,28,194,192,1 // vcmpltps %ymm8,%ymm12,%ymm0 .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8 .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10 .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10 .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1 .byte 196,65,12,92,209 // vsubps %ymm9,%ymm14,%ymm10 .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10 .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10 .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10 .byte 196,67,13,74,210,0 // vblendvps %ymm0,%ymm10,%ymm14,%ymm10 .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14 .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 .byte 196,65,20,94,192 // vdivps %ymm8,%ymm13,%ymm8 .byte 196,65,52,88,192 // vaddps %ymm8,%ymm9,%ymm8 .byte 196,193,116,95,207 // vmaxps %ymm15,%ymm1,%ymm1 .byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9 .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0 .byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8 .byte 196,226,125,24,5,242,153,0,0 // vbroadcastss 0x99f2(%rip),%ymm0 # ae68 <_sk_clut_4D_avx+0x21d1> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 .byte 197,164,89,196 // vmulps %ymm4,%ymm11,%ymm0 .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0 .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,172,89,76,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm1 .byte 197,164,89,213 // vmulps %ymm5,%ymm11,%ymm2 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2 .byte 197,36,89,206 // vmulps %ymm6,%ymm11,%ymm9 .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2 .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_rgba_8888_avx .globl _sk_srcover_rgba_8888_avx FUNCTION(_sk_srcover_rgba_8888_avx) _sk_srcover_rgba_8888_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,41,1,0,0 // jne 1611 <_sk_srcover_rgba_8888_avx+0x150> .byte 197,252,16,56 // vmovups (%rax),%ymm7 .byte 197,124,40,13,172,159,0,0 // vmovaps 0x9fac(%rip),%ymm9 # b4a0 <_sk_clut_4D_avx+0x2809> .byte 196,193,68,84,225 // vandps %ymm9,%ymm7,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 197,209,114,215,8 // vpsrld $0x8,%xmm7,%xmm5 .byte 196,195,125,25,248,1 // vextractf128 $0x1,%ymm7,%xmm8 .byte 196,193,73,114,208,8 // vpsrld $0x8,%xmm8,%xmm6 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 .byte 196,193,84,84,233 // vandps %ymm9,%ymm5,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 197,169,114,215,16 // vpsrld $0x10,%xmm7,%xmm10 .byte 196,193,73,114,208,16 // vpsrld $0x10,%xmm8,%xmm6 .byte 196,227,45,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm10,%ymm6 .byte 196,193,76,84,241 // vandps %ymm9,%ymm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 197,177,114,215,24 // vpsrld $0x18,%xmm7,%xmm9 .byte 196,193,65,114,208,24 // vpsrld $0x18,%xmm8,%xmm7 .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,98,125,24,5,23,153,0,0 // vbroadcastss 0x9917(%rip),%ymm8 # ae6c <_sk_clut_4D_avx+0x21d5> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,98,125,24,13,14,153,0,0 // vbroadcastss 0x990e(%rip),%ymm9 # ae70 <_sk_clut_4D_avx+0x21d9> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3 .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 .byte 196,193,41,114,241,8 // vpslld $0x8,%xmm9,%xmm10 .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 .byte 196,193,49,114,241,8 // vpslld $0x8,%xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9 .byte 196,193,41,114,241,16 // vpslld $0x10,%xmm9,%xmm10 .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 .byte 196,193,49,114,241,16 // vpslld $0x10,%xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 .byte 196,193,33,114,242,24 // vpslld $0x18,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,24 // vpslld $0x18,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9 .byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8 .byte 77,133,192 // test %r8,%r8 .byte 117,86 // jne 165c <_sk_srcover_rgba_8888_avx+0x19b> .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,226 // vmovq %r10,%xmm4 .byte 196,226,121,48,228 // vpmovzxbw %xmm4,%xmm4 .byte 196,226,89,0,45,199,156,0,0 // vpshufb 0x9cc7(%rip),%xmm4,%xmm5 # b300 <_sk_clut_4D_avx+0x2669> .byte 196,226,121,33,237 // vpmovsxbd %xmm5,%xmm5 .byte 196,226,89,0,37,201,156,0,0 // vpshufb 0x9cc9(%rip),%xmm4,%xmm4 # b310 <_sk_clut_4D_avx+0x2679> .byte 196,226,121,33,228 // vpmovsxbd %xmm4,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 .byte 196,226,93,44,56 // vmaskmovps (%rax),%ymm4,%ymm7 .byte 233,144,254,255,255 // jmpq 14ec <_sk_srcover_rgba_8888_avx+0x2b> .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,65,249,110,202 // vmovq %r10,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,98,49,0,21,124,156,0,0 // vpshufb 0x9c7c(%rip),%xmm9,%xmm10 # b300 <_sk_clut_4D_avx+0x2669> .byte 196,66,121,33,210 // vpmovsxbd %xmm10,%xmm10 .byte 196,98,49,0,13,126,156,0,0 // vpshufb 0x9c7e(%rip),%xmm9,%xmm9 # b310 <_sk_clut_4D_avx+0x2679> .byte 196,66,121,33,201 // vpmovsxbd %xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,98,53,46,0 // vmaskmovps %ymm8,%ymm9,(%rax) .byte 233,99,255,255,255 // jmpq 160a <_sk_srcover_rgba_8888_avx+0x149> HIDDEN _sk_clamp_0_avx .globl _sk_clamp_0_avx FUNCTION(_sk_clamp_0_avx) _sk_clamp_0_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_1_avx .globl _sk_clamp_1_avx FUNCTION(_sk_clamp_1_avx) _sk_clamp_1_avx: .byte 196,98,125,24,5,167,151,0,0 // vbroadcastss 0x97a7(%rip),%ymm8 # ae74 <_sk_clut_4D_avx+0x21dd> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_avx .globl _sk_clamp_a_avx FUNCTION(_sk_clamp_a_avx) _sk_clamp_a_avx: .byte 196,98,125,24,5,138,151,0,0 // vbroadcastss 0x978a(%rip),%ymm8 # ae78 <_sk_clut_4D_avx+0x21e1> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_dst_avx .globl _sk_clamp_a_dst_avx FUNCTION(_sk_clamp_a_dst_avx) _sk_clamp_a_dst_avx: .byte 196,98,125,24,5,112,151,0,0 // vbroadcastss 0x9770(%rip),%ymm8 # ae7c <_sk_clut_4D_avx+0x21e5> .byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7 .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4 .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5 .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_avx .globl _sk_set_rgb_avx FUNCTION(_sk_set_rgb_avx) _sk_set_rgb_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0 .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1 .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_avx .globl _sk_swap_rb_avx FUNCTION(_sk_swap_rb_avx) _sk_swap_rb_avx: .byte 197,124,40,192 // vmovaps %ymm0,%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,194 // vmovaps %ymm2,%ymm0 .byte 197,124,41,194 // vmovaps %ymm8,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_avx .globl _sk_invert_avx FUNCTION(_sk_invert_avx) _sk_invert_avx: .byte 196,98,125,24,5,47,151,0,0 // vbroadcastss 0x972f(%rip),%ymm8 # ae80 <_sk_clut_4D_avx+0x21e9> .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_move_src_dst_avx .globl _sk_move_src_dst_avx FUNCTION(_sk_move_src_dst_avx) _sk_move_src_dst_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,224 // vmovaps %ymm0,%ymm4 .byte 197,252,40,233 // vmovaps %ymm1,%ymm5 .byte 197,252,40,242 // vmovaps %ymm2,%ymm6 .byte 197,252,40,251 // vmovaps %ymm3,%ymm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_avx .globl _sk_move_dst_src_avx FUNCTION(_sk_move_dst_src_avx) _sk_move_dst_src_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,196 // vmovaps %ymm4,%ymm0 .byte 197,252,40,205 // vmovaps %ymm5,%ymm1 .byte 197,252,40,214 // vmovaps %ymm6,%ymm2 .byte 197,252,40,223 // vmovaps %ymm7,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_avx .globl _sk_premul_avx FUNCTION(_sk_premul_avx) _sk_premul_avx: .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_dst_avx .globl _sk_premul_dst_avx FUNCTION(_sk_premul_dst_avx) _sk_premul_dst_avx: .byte 197,220,89,231 // vmulps %ymm7,%ymm4,%ymm4 .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5 .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_unpremul_avx .globl _sk_unpremul_avx FUNCTION(_sk_unpremul_avx) _sk_unpremul_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9 .byte 196,98,125,24,21,195,150,0,0 // vbroadcastss 0x96c3(%rip),%ymm10 # ae84 <_sk_clut_4D_avx+0x21ed> .byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10 .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_avx .globl _sk_from_srgb_avx FUNCTION(_sk_from_srgb_avx) _sk_from_srgb_avx: .byte 196,98,125,24,5,164,150,0,0 // vbroadcastss 0x96a4(%rip),%ymm8 # ae88 <_sk_clut_4D_avx+0x21f1> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10 .byte 196,98,125,24,29,150,150,0,0 // vbroadcastss 0x9696(%rip),%ymm11 # ae8c <_sk_clut_4D_avx+0x21f5> .byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12 .byte 196,98,125,24,45,140,150,0,0 // vbroadcastss 0x968c(%rip),%ymm13 # ae90 <_sk_clut_4D_avx+0x21f9> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,37,125,150,0,0 // vbroadcastss 0x967d(%rip),%ymm12 # ae94 <_sk_clut_4D_avx+0x21fd> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,53,115,150,0,0 // vbroadcastss 0x9673(%rip),%ymm14 # ae98 <_sk_clut_4D_avx+0x2201> .byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0 .byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0 .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9 .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10 .byte 196,65,116,89,251 // vmulps %ymm11,%ymm1,%ymm15 .byte 196,65,4,88,253 // vaddps %ymm13,%ymm15,%ymm15 .byte 196,65,44,89,215 // vmulps %ymm15,%ymm10,%ymm10 .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,193,116,194,206,1 // vcmpltps %ymm14,%ymm1,%ymm1 .byte 196,195,45,74,201,16 // vblendvps %ymm1,%ymm9,%ymm10,%ymm1 .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 .byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9 .byte 196,65,108,89,211 // vmulps %ymm11,%ymm2,%ymm10 .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10 .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 196,65,52,88,204 // vaddps %ymm12,%ymm9,%ymm9 .byte 196,193,108,194,214,1 // vcmpltps %ymm14,%ymm2,%ymm2 .byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_dst_avx .globl _sk_from_srgb_dst_avx FUNCTION(_sk_from_srgb_dst_avx) _sk_from_srgb_dst_avx: .byte 196,98,125,24,5,12,150,0,0 // vbroadcastss 0x960c(%rip),%ymm8 # ae9c <_sk_clut_4D_avx+0x2205> .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9 .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10 .byte 196,98,125,24,29,254,149,0,0 // vbroadcastss 0x95fe(%rip),%ymm11 # aea0 <_sk_clut_4D_avx+0x2209> .byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12 .byte 196,98,125,24,45,244,149,0,0 // vbroadcastss 0x95f4(%rip),%ymm13 # aea4 <_sk_clut_4D_avx+0x220d> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,37,229,149,0,0 // vbroadcastss 0x95e5(%rip),%ymm12 # aea8 <_sk_clut_4D_avx+0x2211> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,98,125,24,53,219,149,0,0 // vbroadcastss 0x95db(%rip),%ymm14 # aeac <_sk_clut_4D_avx+0x2215> .byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4 .byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4 .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9 .byte 197,84,89,213 // vmulps %ymm5,%ymm5,%ymm10 .byte 196,65,84,89,251 // vmulps %ymm11,%ymm5,%ymm15 .byte 196,65,4,88,253 // vaddps %ymm13,%ymm15,%ymm15 .byte 196,65,44,89,215 // vmulps %ymm15,%ymm10,%ymm10 .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 .byte 196,193,84,194,238,1 // vcmpltps %ymm14,%ymm5,%ymm5 .byte 196,195,45,74,233,80 // vblendvps %ymm5,%ymm9,%ymm10,%ymm5 .byte 196,65,76,89,192 // vmulps %ymm8,%ymm6,%ymm8 .byte 197,76,89,206 // vmulps %ymm6,%ymm6,%ymm9 .byte 196,65,76,89,211 // vmulps %ymm11,%ymm6,%ymm10 .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10 .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 196,65,52,88,204 // vaddps %ymm12,%ymm9,%ymm9 .byte 196,193,76,194,246,1 // vcmpltps %ymm14,%ymm6,%ymm6 .byte 196,195,53,74,240,96 // vblendvps %ymm6,%ymm8,%ymm9,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_to_srgb_avx .globl _sk_to_srgb_avx FUNCTION(_sk_to_srgb_avx) _sk_to_srgb_avx: .byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9 .byte 196,98,125,24,5,112,149,0,0 // vbroadcastss 0x9570(%rip),%ymm8 # aeb0 <_sk_clut_4D_avx+0x2219> .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 .byte 196,98,125,24,29,102,149,0,0 // vbroadcastss 0x9566(%rip),%ymm11 # aeb4 <_sk_clut_4D_avx+0x221d> .byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12 .byte 196,98,125,24,45,92,149,0,0 // vbroadcastss 0x955c(%rip),%ymm13 # aeb8 <_sk_clut_4D_avx+0x2221> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12 .byte 196,98,125,24,53,77,149,0,0 // vbroadcastss 0x954d(%rip),%ymm14 # aebc <_sk_clut_4D_avx+0x2225> .byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12 .byte 196,98,125,24,61,67,149,0,0 // vbroadcastss 0x9543(%rip),%ymm15 # aec0 <_sk_clut_4D_avx+0x2229> .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9 .byte 196,98,125,24,37,47,149,0,0 // vbroadcastss 0x952f(%rip),%ymm12 # aec4 <_sk_clut_4D_avx+0x222d> .byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9 .byte 196,65,52,89,211 // vmulps %ymm11,%ymm9,%ymm10 .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10 .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,65,44,88,214 // vaddps %ymm14,%ymm10,%ymm10 .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,193,116,194,204,1 // vcmpltps %ymm12,%ymm1,%ymm1 .byte 196,195,53,74,202,16 // vblendvps %ymm1,%ymm10,%ymm9,%ymm1 .byte 197,124,82,202 // vrsqrtps %ymm2,%ymm9 .byte 196,65,52,89,211 // vmulps %ymm11,%ymm9,%ymm10 .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10 .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,65,44,88,214 // vaddps %ymm14,%ymm10,%ymm10 .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 .byte 196,193,108,194,212,1 // vcmpltps %ymm12,%ymm2,%ymm2 .byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_rgb_to_hsl_avx .globl _sk_rgb_to_hsl_avx FUNCTION(_sk_rgb_to_hsl_avx) _sk_rgb_to_hsl_avx: .byte 197,124,95,193 // vmaxps %ymm1,%ymm0,%ymm8 .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8 .byte 197,124,93,201 // vminps %ymm1,%ymm0,%ymm9 .byte 197,52,93,202 // vminps %ymm2,%ymm9,%ymm9 .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10 .byte 196,98,125,24,29,149,148,0,0 // vbroadcastss 0x9495(%rip),%ymm11 # aec8 <_sk_clut_4D_avx+0x2231> .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12 .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13 .byte 197,60,194,241,0 // vcmpeqps %ymm1,%ymm8,%ymm14 .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2 .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2 .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1 .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,29,110,148,0,0 // vbroadcastss 0x946e(%rip),%ymm11 # aed4 <_sk_clut_4D_avx+0x223d> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,29,92,148,0,0 // vbroadcastss 0x945c(%rip),%ymm11 # aed0 <_sk_clut_4D_avx+0x2239> .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1 .byte 196,226,125,24,21,68,148,0,0 // vbroadcastss 0x9444(%rip),%ymm2 # aecc <_sk_clut_4D_avx+0x2235> .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2 .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0 .byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2 .byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0 .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1 .byte 196,98,125,24,37,43,148,0,0 // vbroadcastss 0x942b(%rip),%ymm12 # aedc <_sk_clut_4D_avx+0x2245> .byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2 .byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12 .byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11 .byte 196,65,36,92,217 // vsubps %ymm9,%ymm11,%ymm11 .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1 .byte 196,65,60,194,193,0 // vcmpeqps %ymm9,%ymm8,%ymm8 .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1 .byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0 .byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1 .byte 196,98,125,24,5,238,147,0,0 // vbroadcastss 0x93ee(%rip),%ymm8 # aed8 <_sk_clut_4D_avx+0x2241> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hsl_to_rgb_avx .globl _sk_hsl_to_rgb_avx FUNCTION(_sk_hsl_to_rgb_avx) _sk_hsl_to_rgb_avx: .byte 72,131,236,56 // sub $0x38,%rsp .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp) .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp) .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp) .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp) .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp) .byte 197,252,40,225 // vmovaps %ymm1,%ymm4 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 .byte 196,98,125,24,5,187,147,0,0 // vbroadcastss 0x93bb(%rip),%ymm8 # aee0 <_sk_clut_4D_avx+0x2249> .byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9 .byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10 .byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11 .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9 .byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10 .byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,29,149,147,0,0 // vbroadcastss 0x9395(%rip),%ymm11 # aee4 <_sk_clut_4D_avx+0x224d> .byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15 .byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11 .byte 196,98,125,24,37,127,147,0,0 // vbroadcastss 0x937f(%rip),%ymm12 # aeec <_sk_clut_4D_avx+0x2255> .byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0 .byte 196,98,125,24,45,117,147,0,0 // vbroadcastss 0x9375(%rip),%ymm13 # aef0 <_sk_clut_4D_avx+0x2259> .byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14 .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14 .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14 .byte 196,226,125,24,13,86,147,0,0 // vbroadcastss 0x9356(%rip),%ymm1 # aee8 <_sk_clut_4D_avx+0x2251> .byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7 .byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7 .byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14 .byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7 .byte 196,98,125,24,53,65,147,0,0 // vbroadcastss 0x9341(%rip),%ymm14 # aef4 <_sk_clut_4D_avx+0x225d> .byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15 .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 .byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15 .byte 196,227,125,8,195,1 // vroundps $0x1,%ymm3,%ymm0 .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0 .byte 196,193,124,89,252 // vmulps %ymm12,%ymm0,%ymm7 .byte 197,148,92,247 // vsubps %ymm7,%ymm13,%ymm6 .byte 197,164,89,246 // vmulps %ymm6,%ymm11,%ymm6 .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6 .byte 197,244,194,232,2 // vcmpleps %ymm0,%ymm1,%ymm5 .byte 196,195,77,74,233,80 // vblendvps %ymm5,%ymm9,%ymm6,%ymm5 .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6 .byte 196,227,45,74,237,96 // vblendvps %ymm6,%ymm5,%ymm10,%ymm5 .byte 197,140,194,192,2 // vcmpleps %ymm0,%ymm14,%ymm0 .byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6 .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6 .byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5 .byte 196,226,125,24,5,227,146,0,0 // vbroadcastss 0x92e3(%rip),%ymm0 # aef8 <_sk_clut_4D_avx+0x2261> .byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0 .byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3 .byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0 .byte 197,244,194,200,2 // vcmpleps %ymm0,%ymm1,%ymm1 .byte 196,193,124,89,220 // vmulps %ymm12,%ymm0,%ymm3 .byte 197,148,92,243 // vsubps %ymm3,%ymm13,%ymm6 .byte 197,164,89,246 // vmulps %ymm6,%ymm11,%ymm6 .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6 .byte 196,195,77,74,201,16 // vblendvps %ymm1,%ymm9,%ymm6,%ymm1 .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6 .byte 196,227,45,74,201,96 // vblendvps %ymm6,%ymm1,%ymm10,%ymm1 .byte 197,140,194,192,2 // vcmpleps %ymm0,%ymm14,%ymm0 .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3 .byte 197,180,88,219 // vaddps %ymm3,%ymm9,%ymm3 .byte 196,227,101,74,217,0 // vblendvps %ymm0,%ymm1,%ymm3,%ymm3 .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,220,194,224,0 // vcmpeqps %ymm0,%ymm4,%ymm4 .byte 196,227,5,74,194,64 // vblendvps %ymm4,%ymm2,%ymm15,%ymm0 .byte 196,227,85,74,202,64 // vblendvps %ymm4,%ymm2,%ymm5,%ymm1 .byte 196,227,101,74,210,64 // vblendvps %ymm4,%ymm2,%ymm3,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,92,36,128 // vmovups -0x80(%rsp),%ymm3 .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4 .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5 .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6 .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7 .byte 72,131,196,56 // add $0x38,%rsp .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_1_float_avx .globl _sk_scale_1_float_avx FUNCTION(_sk_scale_1_float_avx) _sk_scale_1_float_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_avx .globl _sk_scale_u8_avx FUNCTION(_sk_scale_u8_avx) _sk_scale_u8_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,75 // jne 1d1c <_sk_scale_u8_avx+0x64> .byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8 .byte 197,57,219,5,65,150,0,0 // vpand 0x9641(%rip),%xmm8,%xmm8 # b320 <_sk_clut_4D_avx+0x2689> .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,57,105,201 // vpunpckhwd %xmm9,%xmm8,%xmm9 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,13,250,145,0,0 // vbroadcastss 0x91fa(%rip),%ymm9 # aefc <_sk_clut_4D_avx+0x2265> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,166 // ja 1cd7 <_sk_scale_u8_avx+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,124,0,0,0 // lea 0x7c(%rip),%r11 # 1db8 <_sk_scale_u8_avx+0x100> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 235,135 // jmp 1cd7 <_sk_scale_u8_avx+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 .byte 233,94,255,255,255 // jmpq 1cd7 <_sk_scale_u8_avx+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8 .byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 .byte 233,34,255,255,255 // jmpq 1cd7 <_sk_scale_u8_avx+0x1f> .byte 15,31,0 // nopl (%rax) .byte 141 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax) .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_lerp_1_float_avx .globl _sk_lerp_1_float_avx FUNCTION(_sk_lerp_1_float_avx) _sk_lerp_1_float_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2 .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_avx .globl _sk_lerp_u8_avx FUNCTION(_sk_lerp_u8_avx) _sk_lerp_u8_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,111 // jne 1e9b <_sk_lerp_u8_avx+0x88> .byte 196,66,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm8 .byte 197,57,219,5,246,148,0,0 // vpand 0x94f6(%rip),%xmm8,%xmm8 # b330 <_sk_clut_4D_avx+0x2699> .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,57,105,201 // vpunpckhwd %xmm9,%xmm8,%xmm9 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,13,163,144,0,0 // vbroadcastss 0x90a3(%rip),%ymm9 # af00 <_sk_clut_4D_avx+0x2269> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2 .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,130 // ja 1e32 <_sk_lerp_u8_avx+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,125,0,0,0 // lea 0x7d(%rip),%r11 # 1f38 <_sk_lerp_u8_avx+0x125> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 233,96,255,255,255 // jmpq 1e32 <_sk_lerp_u8_avx+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 .byte 233,55,255,255,255 // jmpq 1e32 <_sk_lerp_u8_avx+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8 .byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 .byte 233,251,254,255,255 // jmpq 1e32 <_sk_lerp_u8_avx+0x1f> .byte 144 // nop .byte 140,255 // mov %?,%edi .byte 255 // (bad) .byte 255,170,255,255,255,154 // ljmp *-0x65000001(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 233,255,255,255,222 // jmpq ffffffffdf001f48 <_sk_clut_4D_avx+0xffffffffdeff92b1> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx .byte 255 // (bad) .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_lerp_565_avx .globl _sk_lerp_565_avx FUNCTION(_sk_lerp_565_avx) _sk_lerp_565_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,209,0,0,0 // jne 2045 <_sk_lerp_565_avx+0xf1> .byte 196,65,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,57,105,201 // vpunpckhwd %xmm9,%xmm8,%xmm9 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,61,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm8,%ymm8 .byte 196,98,125,24,13,108,143,0,0 // vbroadcastss 0x8f6c(%rip),%ymm9 # af04 <_sk_clut_4D_avx+0x226d> .byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9 .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 .byte 196,98,125,24,21,93,143,0,0 // vbroadcastss 0x8f5d(%rip),%ymm10 # af08 <_sk_clut_4D_avx+0x2271> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,21,83,143,0,0 // vbroadcastss 0x8f53(%rip),%ymm10 # af0c <_sk_clut_4D_avx+0x2275> .byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10 .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 .byte 196,98,125,24,29,68,143,0,0 // vbroadcastss 0x8f44(%rip),%ymm11 # af10 <_sk_clut_4D_avx+0x2279> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 196,98,125,24,29,58,143,0,0 // vbroadcastss 0x8f3a(%rip),%ymm11 # af14 <_sk_clut_4D_avx+0x227d> .byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 196,98,125,24,29,43,143,0,0 // vbroadcastss 0x8f2b(%rip),%ymm11 # af18 <_sk_clut_4D_avx+0x2281> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2 .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3 .byte 196,65,100,89,201 // vmulps %ymm9,%ymm3,%ymm9 .byte 197,52,88,207 // vaddps %ymm7,%ymm9,%ymm9 .byte 196,65,100,89,210 // vmulps %ymm10,%ymm3,%ymm10 .byte 197,44,88,215 // vaddps %ymm7,%ymm10,%ymm10 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3 .byte 197,172,95,219 // vmaxps %ymm3,%ymm10,%ymm3 .byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,28,255,255,255 // ja 1f7a <_sk_lerp_565_avx+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 20cc <_sk_lerp_565_avx+0x178> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 233,250,254,255,255 // jmpq 1f7a <_sk_lerp_565_avx+0x26> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 .byte 233,220,254,255,255 // jmpq 1f7a <_sk_lerp_565_avx+0x26> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,57,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,57,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm8,%xmm8 .byte 196,65,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 .byte 233,174,254,255,255 // jmpq 1f7a <_sk_lerp_565_avx+0x26> .byte 166 // cmpsb %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255,180,255,255,255,239,255 // pushq -0x100001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_tables_avx .globl _sk_load_tables_avx FUNCTION(_sk_load_tables_avx) _sk_load_tables_avx: .byte 83 // push %rbx .byte 197,252,17,124,36,208 // vmovups %ymm7,-0x30(%rsp) .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10 .byte 76,3,16 // add (%rax),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,248,1,0,0 // jne 2300 <_sk_load_tables_avx+0x218> .byte 196,65,124,16,18 // vmovups (%r10),%ymm10 .byte 197,124,40,13,171,147,0,0 // vmovaps 0x93ab(%rip),%ymm9 # b4c0 <_sk_clut_4D_avx+0x2829> .byte 196,193,44,84,201 // vandps %ymm9,%ymm10,%ymm1 .byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 69,137,218 // mov %r11d,%r10d .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 196,161,122,16,20,147 // vmovss (%rbx,%r10,4),%xmm2 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,163,105,33,4,155,16 // vinsertps $0x10,(%rbx,%r11,4),%xmm2,%xmm0 .byte 68,137,209 // mov %r10d,%ecx .byte 196,227,121,33,4,139,32 // vinsertps $0x20,(%rbx,%rcx,4),%xmm0,%xmm0 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,35,121,33,44,147,48 // vinsertps $0x30,(%rbx,%r10,4),%xmm0,%xmm13 .byte 68,137,217 // mov %r11d,%ecx .byte 197,250,16,20,139 // vmovss (%rbx,%rcx,4),%xmm2 .byte 196,227,249,22,201,1 // vpextrq $0x1,%xmm1,%rcx .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,163,105,33,12,155,16 // vinsertps $0x10,(%rbx,%r11,4),%xmm2,%xmm1 .byte 65,137,202 // mov %ecx,%r10d .byte 72,193,233,32 // shr $0x20,%rcx .byte 196,163,113,33,12,147,32 // vinsertps $0x20,(%rbx,%r10,4),%xmm1,%xmm1 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 196,99,113,33,36,139,48 // vinsertps $0x30,(%rbx,%rcx,4),%xmm1,%xmm12 .byte 196,193,105,114,210,8 // vpsrld $0x8,%xmm10,%xmm2 .byte 196,67,125,25,208,1 // vextractf128 $0x1,%ymm10,%xmm8 .byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0 .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0 .byte 196,193,124,84,209 // vandps %ymm9,%ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 196,225,249,126,193 // vmovq %xmm0,%rcx .byte 137,203 // mov %ecx,%ebx .byte 196,193,122,16,12,154 // vmovss (%r10,%rbx,4),%xmm1 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 72,193,233,32 // shr $0x20,%rcx .byte 196,67,113,33,52,138,16 // vinsertps $0x10,(%r10,%rcx,4),%xmm1,%xmm14 .byte 137,217 // mov %ebx,%ecx .byte 196,193,122,16,28,138 // vmovss (%r10,%rcx,4),%xmm3 .byte 196,225,249,126,209 // vmovq %xmm2,%rcx .byte 72,193,235,32 // shr $0x20,%rbx .byte 196,193,122,16,12,154 // vmovss (%r10,%rbx,4),%xmm1 .byte 137,203 // mov %ecx,%ebx .byte 196,193,122,16,4,154 // vmovss (%r10,%rbx,4),%xmm0 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 72,193,233,32 // shr $0x20,%rcx .byte 196,67,121,33,28,138,16 // vinsertps $0x10,(%r10,%rcx,4),%xmm0,%xmm11 .byte 137,217 // mov %ebx,%ecx .byte 196,65,122,16,60,138 // vmovss (%r10,%rcx,4),%xmm15 .byte 196,195,29,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm0 .byte 72,193,235,32 // shr $0x20,%rbx .byte 196,227,9,33,219,32 // vinsertps $0x20,%xmm3,%xmm14,%xmm3 .byte 196,227,97,33,249,48 // vinsertps $0x30,%xmm1,%xmm3,%xmm7 .byte 196,65,122,16,52,154 // vmovss (%r10,%rbx,4),%xmm14 .byte 72,139,64,24 // mov 0x18(%rax),%rax .byte 196,193,97,114,210,16 // vpsrld $0x10,%xmm10,%xmm3 .byte 196,193,105,114,208,16 // vpsrld $0x10,%xmm8,%xmm2 .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2 .byte 196,65,108,84,201 // vandps %ymm9,%ymm2,%ymm9 .byte 196,99,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm2 .byte 196,225,249,126,209 // vmovq %xmm2,%rcx .byte 137,203 // mov %ecx,%ebx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 72,193,233,32 // shr $0x20,%rcx .byte 196,99,97,33,36,136,16 // vinsertps $0x10,(%rax,%rcx,4),%xmm3,%xmm12 .byte 137,217 // mov %ebx,%ecx .byte 197,250,16,28,136 // vmovss (%rax,%rcx,4),%xmm3 .byte 196,97,249,126,201 // vmovq %xmm9,%rcx .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 137,203 // mov %ecx,%ebx .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,99,249,22,203,1 // vpextrq $0x1,%xmm9,%rbx .byte 72,193,233,32 // shr $0x20,%rcx .byte 196,99,113,33,12,136,16 // vinsertps $0x10,(%rax,%rcx,4),%xmm1,%xmm9 .byte 137,217 // mov %ebx,%ecx .byte 197,122,16,44,136 // vmovss (%rax,%rcx,4),%xmm13 .byte 196,195,33,33,207,32 // vinsertps $0x20,%xmm15,%xmm11,%xmm1 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,122,16,28,152 // vmovss (%rax,%rbx,4),%xmm11 .byte 196,195,113,33,206,48 // vinsertps $0x30,%xmm14,%xmm1,%xmm1 .byte 196,227,117,24,207,1 // vinsertf128 $0x1,%xmm7,%ymm1,%ymm1 .byte 196,227,25,33,219,32 // vinsertps $0x20,%xmm3,%xmm12,%xmm3 .byte 196,227,97,33,210,48 // vinsertps $0x30,%xmm2,%xmm3,%xmm2 .byte 196,195,49,33,221,32 // vinsertps $0x20,%xmm13,%xmm9,%xmm3 .byte 196,195,97,33,219,48 // vinsertps $0x30,%xmm11,%xmm3,%xmm3 .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2 .byte 196,193,97,114,210,24 // vpsrld $0x18,%xmm10,%xmm3 .byte 196,193,65,114,208,24 // vpsrld $0x18,%xmm8,%xmm7 .byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,226,125,24,61,46,140,0,0 // vbroadcastss 0x8c2e(%rip),%ymm7 # af1c <_sk_clut_4D_avx+0x2285> .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 197,252,16,124,36,208 // vmovups -0x30(%rsp),%ymm7 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,195,255,255,255,255 // mov $0xffffffffffffffff,%r11 .byte 73,211,235 // shr %cl,%r11 .byte 196,193,249,110,195 // vmovq %r11,%xmm0 .byte 196,226,121,48,192 // vpmovzxbw %xmm0,%xmm0 .byte 196,226,121,0,13,24,144,0,0 // vpshufb 0x9018(%rip),%xmm0,%xmm1 # b340 <_sk_clut_4D_avx+0x26a9> .byte 196,226,121,33,201 // vpmovsxbd %xmm1,%xmm1 .byte 196,226,121,0,5,26,144,0,0 // vpshufb 0x901a(%rip),%xmm0,%xmm0 # b350 <_sk_clut_4D_avx+0x26b9> .byte 196,226,121,33,192 // vpmovsxbd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,66,125,44,18 // vmaskmovps (%r10),%ymm0,%ymm10 .byte 233,194,253,255,255 // jmpq 210d <_sk_load_tables_avx+0x25> HIDDEN _sk_load_tables_u16_be_avx .globl _sk_load_tables_u16_be_avx FUNCTION(_sk_load_tables_u16_be_avx) _sk_load_tables_u16_be_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10 .byte 77,133,192 // test %r8,%r8 .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp) .byte 15,133,84,2,0,0 // jne 25bb <_sk_load_tables_u16_be_avx+0x270> .byte 196,1,121,16,4,81 // vmovupd (%r9,%r10,2),%xmm8 .byte 196,129,121,16,84,81,16 // vmovupd 0x10(%r9,%r10,2),%xmm2 .byte 196,129,121,16,92,81,32 // vmovupd 0x20(%r9,%r10,2),%xmm3 .byte 196,1,122,111,76,81,48 // vmovdqu 0x30(%r9,%r10,2),%xmm9 .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0 .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2 .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1 .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3 .byte 197,121,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm9 .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8 .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0 .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11 .byte 197,177,108,200 // vpunpcklqdq %xmm0,%xmm9,%xmm1 .byte 197,49,109,224 // vpunpckhqdq %xmm0,%xmm9,%xmm12 .byte 197,121,111,21,172,143,0,0 // vmovdqa 0x8fac(%rip),%xmm10 # b360 <_sk_clut_4D_avx+0x26c9> .byte 196,193,113,219,202 // vpand %xmm10,%xmm1,%xmm1 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,113,105,209 // vpunpckhwd %xmm9,%xmm1,%xmm2 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 76,139,88,8 // mov 0x8(%rax),%r11 .byte 196,129,122,16,28,147 // vmovss (%r11,%r10,4),%xmm3 .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,97,33,44,139,16 // vinsertps $0x10,(%r11,%r9,4),%xmm3,%xmm13 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1 .byte 196,129,122,16,28,139 // vmovss (%r11,%r9,4),%xmm3 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 196,129,122,16,4,147 // vmovss (%r11,%r10,4),%xmm0 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 196,129,122,16,20,147 // vmovss (%r11,%r10,4),%xmm2 .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 .byte 196,131,105,33,12,11,16 // vinsertps $0x10,(%r11,%r9,1),%xmm2,%xmm1 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 196,129,122,16,20,139 // vmovss (%r11,%r9,4),%xmm2 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 196,227,17,33,219,32 // vinsertps $0x20,%xmm3,%xmm13,%xmm3 .byte 196,99,97,33,232,48 // vinsertps $0x30,%xmm0,%xmm3,%xmm13 .byte 196,99,113,33,242,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm14 .byte 196,1,122,16,60,19 // vmovss (%r11,%r10,1),%xmm15 .byte 196,193,25,219,210 // vpand %xmm10,%xmm12,%xmm2 .byte 196,193,105,105,193 // vpunpckhwd %xmm9,%xmm2,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,129,122,16,12,153 // vmovss (%r9,%r11,4),%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,113,33,36,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm1,%xmm12 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,226,121,51,194 // vpmovzxwd %xmm2,%xmm0 .byte 196,129,122,16,20,145 // vmovss (%r9,%r10,4),%xmm2 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,129,122,16,28,153 // vmovss (%r9,%r11,4),%xmm3 .byte 69,137,211 // mov %r10d,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 196,129,122,16,12,153 // vmovss (%r9,%r11,4),%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 196,131,113,33,12,17,16 // vinsertps $0x10,(%r9,%r10,1),%xmm1,%xmm1 .byte 69,137,218 // mov %r11d,%r10d .byte 196,129,122,16,60,145 // vmovss (%r9,%r10,4),%xmm7 .byte 196,195,9,33,199,48 // vinsertps $0x30,%xmm15,%xmm14,%xmm0 .byte 196,65,57,108,243 // vpunpcklqdq %xmm11,%xmm8,%xmm14 .byte 196,195,125,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm0,%ymm0 .byte 73,193,235,30 // shr $0x1e,%r11 .byte 196,227,25,33,210,32 // vinsertps $0x20,%xmm2,%xmm12,%xmm2 .byte 196,227,105,33,219,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm3 .byte 196,99,113,33,239,32 // vinsertps $0x20,%xmm7,%xmm1,%xmm13 .byte 196,1,122,16,60,25 // vmovss (%r9,%r11,1),%xmm15 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 196,193,9,219,250 // vpand %xmm10,%xmm14,%xmm7 .byte 196,193,65,105,209 // vpunpckhwd %xmm9,%xmm7,%xmm2 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 .byte 68,137,200 // mov %r9d,%eax .byte 196,193,122,16,12,130 // vmovss (%r10,%rax,4),%xmm1 .byte 196,227,249,22,208,1 // vpextrq $0x1,%xmm2,%rax .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,113,33,20,138,16 // vinsertps $0x10,(%r10,%r9,4),%xmm1,%xmm10 .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,226,121,51,207 // vpmovzxwd %xmm7,%xmm1 .byte 196,1,122,16,52,138 // vmovss (%r10,%r9,4),%xmm14 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 196,65,122,16,36,130 // vmovss (%r10,%rax,4),%xmm12 .byte 68,137,200 // mov %r9d,%eax .byte 73,193,233,30 // shr $0x1e,%r9 .byte 196,193,122,16,20,130 // vmovss (%r10,%rax,4),%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 196,131,105,33,20,10,16 // vinsertps $0x10,(%r10,%r9,1),%xmm2,%xmm2 .byte 68,137,216 // mov %r11d,%eax .byte 196,193,122,16,60,130 // vmovss (%r10,%rax,4),%xmm7 .byte 196,195,17,33,207,48 // vinsertps $0x30,%xmm15,%xmm13,%xmm1 .byte 73,193,235,30 // shr $0x1e,%r11 .byte 196,1,122,16,44,26 // vmovss (%r10,%r11,1),%xmm13 .byte 196,227,117,24,203,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm1 .byte 196,195,41,33,222,32 // vinsertps $0x20,%xmm14,%xmm10,%xmm3 .byte 196,195,97,33,220,48 // vinsertps $0x30,%xmm12,%xmm3,%xmm3 .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2 .byte 196,195,105,33,213,48 // vinsertps $0x30,%xmm13,%xmm2,%xmm2 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 196,193,57,109,219 // vpunpckhqdq %xmm11,%xmm8,%xmm3 .byte 197,193,113,243,8 // vpsllw $0x8,%xmm3,%xmm7 .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3 .byte 197,193,235,219 // vpor %xmm3,%xmm7,%xmm3 .byte 196,193,97,105,249 // vpunpckhwd %xmm9,%xmm3,%xmm7 .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3 .byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,226,125,24,61,115,137,0,0 // vbroadcastss 0x8973(%rip),%ymm7 # af20 <_sk_clut_4D_avx+0x2289> .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7 .byte 255,224 // jmpq *%rax .byte 196,1,123,16,4,81 // vmovsd (%r9,%r10,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 2621 <_sk_load_tables_u16_be_avx+0x2d6> .byte 196,1,57,22,68,81,8 // vmovhpd 0x8(%r9,%r10,2),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 2621 <_sk_load_tables_u16_be_avx+0x2d6> .byte 196,129,123,16,84,81,16 // vmovsd 0x10(%r9,%r10,2),%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 262e <_sk_load_tables_u16_be_avx+0x2e3> .byte 196,129,105,22,84,81,24 // vmovhpd 0x18(%r9,%r10,2),%xmm2,%xmm2 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 262e <_sk_load_tables_u16_be_avx+0x2e3> .byte 196,129,123,16,92,81,32 // vmovsd 0x20(%r9,%r10,2),%xmm3 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,126,253,255,255 // je 2382 <_sk_load_tables_u16_be_avx+0x37> .byte 196,129,97,22,92,81,40 // vmovhpd 0x28(%r9,%r10,2),%xmm3,%xmm3 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,109,253,255,255 // jb 2382 <_sk_load_tables_u16_be_avx+0x37> .byte 196,1,122,126,76,81,48 // vmovq 0x30(%r9,%r10,2),%xmm9 .byte 233,97,253,255,255 // jmpq 2382 <_sk_load_tables_u16_be_avx+0x37> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 .byte 233,84,253,255,255 // jmpq 2382 <_sk_load_tables_u16_be_avx+0x37> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 233,75,253,255,255 // jmpq 2382 <_sk_load_tables_u16_be_avx+0x37> HIDDEN _sk_load_tables_rgb_u16_be_avx .globl _sk_load_tables_rgb_u16_be_avx FUNCTION(_sk_load_tables_rgb_u16_be_avx) _sk_load_tables_rgb_u16_be_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10 .byte 77,133,192 // test %r8,%r8 .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp) .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp) .byte 15,133,71,2,0,0 // jne 289c <_sk_load_tables_rgb_u16_be_avx+0x265> .byte 196,129,122,111,4,81 // vmovdqu (%r9,%r10,2),%xmm0 .byte 196,129,122,111,84,81,12 // vmovdqu 0xc(%r9,%r10,2),%xmm2 .byte 196,129,122,111,76,81,24 // vmovdqu 0x18(%r9,%r10,2),%xmm1 .byte 196,129,122,111,92,81,32 // vmovdqu 0x20(%r9,%r10,2),%xmm3 .byte 197,225,115,219,4 // vpsrldq $0x4,%xmm3,%xmm3 .byte 197,185,115,216,6 // vpsrldq $0x6,%xmm0,%xmm8 .byte 197,177,115,218,6 // vpsrldq $0x6,%xmm2,%xmm9 .byte 197,161,115,217,6 // vpsrldq $0x6,%xmm1,%xmm11 .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10 .byte 197,249,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm0 .byte 196,193,57,97,209 // vpunpcklwd %xmm9,%xmm8,%xmm2 .byte 197,241,97,203 // vpunpcklwd %xmm3,%xmm1,%xmm1 .byte 196,193,33,97,218 // vpunpcklwd %xmm10,%xmm11,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,249,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm0 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,241,105,203 // vpunpckhwd %xmm3,%xmm1,%xmm1 .byte 197,185,108,218 // vpunpcklqdq %xmm2,%xmm8,%xmm3 .byte 197,57,109,218 // vpunpckhqdq %xmm2,%xmm8,%xmm11 .byte 197,121,108,193 // vpunpcklqdq %xmm1,%xmm0,%xmm8 .byte 197,121,111,13,177,140,0,0 // vmovdqa 0x8cb1(%rip),%xmm9 # b370 <_sk_clut_4D_avx+0x26d9> .byte 196,193,97,219,193 // vpand %xmm9,%xmm3,%xmm0 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 76,139,88,8 // mov 0x8(%rax),%r11 .byte 196,129,122,16,20,147 // vmovss (%r11,%r10,4),%xmm2 .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,105,33,36,139,16 // vinsertps $0x10,(%r11,%r9,4),%xmm2,%xmm12 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,129,122,16,20,139 // vmovss (%r11,%r9,4),%xmm2 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 196,129,122,16,12,147 // vmovss (%r11,%r10,4),%xmm1 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 196,129,122,16,28,147 // vmovss (%r11,%r10,4),%xmm3 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 196,131,97,33,28,11,16 // vinsertps $0x10,(%r11,%r9,1),%xmm3,%xmm3 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 196,129,122,16,4,139 // vmovss (%r11,%r9,4),%xmm0 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 196,227,25,33,210,32 // vinsertps $0x20,%xmm2,%xmm12,%xmm2 .byte 196,227,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm1 .byte 196,129,122,16,20,19 // vmovss (%r11,%r10,1),%xmm2 .byte 196,65,33,219,225 // vpand %xmm9,%xmm11,%xmm12 .byte 196,65,25,105,218 // vpunpckhwd %xmm10,%xmm12,%xmm11 .byte 196,65,249,126,218 // vmovq %xmm11,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,1,122,16,44,153 // vmovss (%r9,%r11,4),%xmm13 .byte 196,67,249,22,219,1 // vpextrq $0x1,%xmm11,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,17,33,28,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm13,%xmm11 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,66,121,51,244 // vpmovzxwd %xmm12,%xmm14 .byte 196,1,122,16,44,145 // vmovss (%r9,%r10,4),%xmm13 .byte 196,65,249,126,242 // vmovq %xmm14,%r10 .byte 196,1,122,16,36,153 // vmovss (%r9,%r11,4),%xmm12 .byte 69,137,211 // mov %r10d,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 196,1,122,16,60,153 // vmovss (%r9,%r11,4),%xmm15 .byte 196,67,249,22,243,1 // vpextrq $0x1,%xmm14,%r11 .byte 196,3,1,33,52,17,16 // vinsertps $0x10,(%r9,%r10,1),%xmm15,%xmm14 .byte 69,137,218 // mov %r11d,%r10d .byte 196,1,122,16,60,145 // vmovss (%r9,%r10,4),%xmm15 .byte 196,227,97,33,192,32 // vinsertps $0x20,%xmm0,%xmm3,%xmm0 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 73,193,235,30 // shr $0x1e,%r11 .byte 196,129,122,16,52,25 // vmovss (%r9,%r11,1),%xmm6 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 196,65,57,219,193 // vpand %xmm9,%xmm8,%xmm8 .byte 196,193,57,105,210 // vpunpckhwd %xmm10,%xmm8,%xmm2 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 .byte 68,137,200 // mov %r9d,%eax .byte 196,193,122,16,12,130 // vmovss (%r10,%rax,4),%xmm1 .byte 196,227,249,22,208,1 // vpextrq $0x1,%xmm2,%rax .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,113,33,12,138,16 // vinsertps $0x10,(%r10,%r9,4),%xmm1,%xmm9 .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,194,121,51,200 // vpmovzxwd %xmm8,%xmm1 .byte 196,1,122,16,4,138 // vmovss (%r10,%r9,4),%xmm8 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 196,65,122,16,20,130 // vmovss (%r10,%rax,4),%xmm10 .byte 68,137,200 // mov %r9d,%eax .byte 73,193,233,30 // shr $0x1e,%r9 .byte 196,193,122,16,20,130 // vmovss (%r10,%rax,4),%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 196,131,105,33,20,10,16 // vinsertps $0x10,(%r10,%r9,1),%xmm2,%xmm2 .byte 68,137,216 // mov %r11d,%eax .byte 196,193,122,16,60,130 // vmovss (%r10,%rax,4),%xmm7 .byte 196,195,33,33,205,32 // vinsertps $0x20,%xmm13,%xmm11,%xmm1 .byte 73,193,235,30 // shr $0x1e,%r11 .byte 196,1,122,16,28,26 // vmovss (%r10,%r11,1),%xmm11 .byte 196,195,113,33,204,48 // vinsertps $0x30,%xmm12,%xmm1,%xmm1 .byte 196,195,9,33,223,32 // vinsertps $0x20,%xmm15,%xmm14,%xmm3 .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3 .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1 .byte 196,195,49,33,216,32 // vinsertps $0x20,%xmm8,%xmm9,%xmm3 .byte 196,195,97,33,218,48 // vinsertps $0x30,%xmm10,%xmm3,%xmm3 .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2 .byte 196,195,105,33,211,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm2 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,150,134,0,0 // vbroadcastss 0x8696(%rip),%ymm3 # af24 <_sk_clut_4D_avx+0x228d> .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6 .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7 .byte 255,224 // jmpq *%rax .byte 196,129,121,110,4,81 // vmovd (%r9,%r10,2),%xmm0 .byte 196,129,121,196,68,81,4,2 // vpinsrw $0x2,0x4(%r9,%r10,2),%xmm0,%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,5 // jne 28b5 <_sk_load_tables_rgb_u16_be_avx+0x27e> .byte 233,212,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> .byte 196,129,121,110,76,81,6 // vmovd 0x6(%r9,%r10,2),%xmm1 .byte 196,1,113,196,68,81,10,2 // vpinsrw $0x2,0xa(%r9,%r10,2),%xmm1,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,26 // jb 28e4 <_sk_load_tables_rgb_u16_be_avx+0x2ad> .byte 196,129,121,110,76,81,12 // vmovd 0xc(%r9,%r10,2),%xmm1 .byte 196,129,113,196,84,81,16,2 // vpinsrw $0x2,0x10(%r9,%r10,2),%xmm1,%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 117,10 // jne 28e9 <_sk_load_tables_rgb_u16_be_avx+0x2b2> .byte 233,165,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> .byte 233,160,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> .byte 196,129,121,110,76,81,18 // vmovd 0x12(%r9,%r10,2),%xmm1 .byte 196,1,113,196,76,81,22,2 // vpinsrw $0x2,0x16(%r9,%r10,2),%xmm1,%xmm9 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,26 // jb 2918 <_sk_load_tables_rgb_u16_be_avx+0x2e1> .byte 196,129,121,110,76,81,24 // vmovd 0x18(%r9,%r10,2),%xmm1 .byte 196,129,113,196,76,81,28,2 // vpinsrw $0x2,0x1c(%r9,%r10,2),%xmm1,%xmm1 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 117,10 // jne 291d <_sk_load_tables_rgb_u16_be_avx+0x2e6> .byte 233,113,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> .byte 233,108,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> .byte 196,129,121,110,92,81,30 // vmovd 0x1e(%r9,%r10,2),%xmm3 .byte 196,1,97,196,92,81,34,2 // vpinsrw $0x2,0x22(%r9,%r10,2),%xmm3,%xmm11 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,20 // jb 2946 <_sk_load_tables_rgb_u16_be_avx+0x30f> .byte 196,129,121,110,92,81,36 // vmovd 0x24(%r9,%r10,2),%xmm3 .byte 196,129,97,196,92,81,40,2 // vpinsrw $0x2,0x28(%r9,%r10,2),%xmm3,%xmm3 .byte 233,67,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> .byte 233,62,253,255,255 // jmpq 2689 <_sk_load_tables_rgb_u16_be_avx+0x52> HIDDEN _sk_byte_tables_avx .globl _sk_byte_tables_avx FUNCTION(_sk_byte_tables_avx) _sk_byte_tables_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,210,133,0,0 // vbroadcastss 0x85d2(%rip),%ymm8 # af28 <_sk_clut_4D_avx+0x2291> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 .byte 196,65,249,126,201 // vmovq %xmm9,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 76,139,24 // mov (%rax),%r11 .byte 196,131,121,32,4,19,0 // vpinsrb $0x0,(%r11,%r10,1),%xmm0,%xmm0 .byte 196,67,249,22,202,1 // vpextrq $0x1,%xmm9,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,121,32,20,11,1 // vpinsrb $0x1,(%r11,%r9,1),%xmm0,%xmm10 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,67,41,32,201,2 // vpinsrb $0x2,%r9d,%xmm10,%xmm9 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,49,32,202,3 // vpinsrb $0x3,%r10d,%xmm9,%xmm9 .byte 69,137,202 // mov %r9d,%r10d .byte 196,3,121,32,20,19,0 // vpinsrb $0x0,(%r11,%r10,1),%xmm0,%xmm10 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,41,32,4,11,1 // vpinsrb $0x1,(%r11,%r9,1),%xmm10,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,121,32,210,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm10 .byte 196,193,116,89,192 // vmulps %ymm8,%ymm1,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,12,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,113,32,12,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm1,%xmm1 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,113,32,202,2 // vpinsrb $0x2,%r10d,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,67,113,32,227,3 // vpinsrb $0x3,%r11d,%xmm1,%xmm12 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,12,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,113,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm1,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,2 // vpinsrb $0x2,%r10d,%xmm0,%xmm0 .byte 71,15,182,12,25 // movzbl (%r9,%r11,1),%r9d .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 196,193,108,89,200 // vmulps %ymm8,%ymm2,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,20,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,20,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm2 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,105,32,210,2 // vpinsrb $0x2,%r10d,%xmm2,%xmm2 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,67,105,32,219,3 // vpinsrb $0x3,%r11d,%xmm2,%xmm11 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,20,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,12,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm1 .byte 69,137,218 // mov %r11d,%r10d .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,113,32,202,2 // vpinsrb $0x2,%r10d,%xmm1,%xmm1 .byte 73,193,235,32 // shr $0x20,%r11 .byte 71,15,182,12,25 // movzbl (%r9,%r11,1),%r9d .byte 196,67,113,32,241,3 // vpinsrb $0x3,%r9d,%xmm1,%xmm14 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 196,193,100,89,200 // vmulps %ymm8,%ymm3,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 68,137,200 // mov %r9d,%eax .byte 196,195,121,32,28,2,0 // vpinsrb $0x0,(%r10,%rax,1),%xmm0,%xmm3 .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,97,32,28,10,1 // vpinsrb $0x1,(%r10,%r9,1),%xmm3,%xmm3 .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,195,97,32,217,2 // vpinsrb $0x2,%r9d,%xmm3,%xmm3 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,99,97,32,192,3 // vpinsrb $0x3,%eax,%xmm3,%xmm8 .byte 68,137,200 // mov %r9d,%eax .byte 196,195,121,32,4,2,0 // vpinsrb $0x0,(%r10,%rax,1),%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,121,32,4,10,1 // vpinsrb $0x1,(%r10,%r9,1),%xmm0,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,99,121,32,248,2 // vpinsrb $0x2,%eax,%xmm0,%xmm15 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,26 // movzbl (%r10,%r11,1),%eax .byte 196,194,121,49,193 // vpmovzxbd %xmm9,%xmm0 .byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1 .byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,98,125,24,13,124,131,0,0 // vbroadcastss 0x837c(%rip),%ymm9 # af2c <_sk_clut_4D_avx+0x2295> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 .byte 196,194,121,49,211 // vpmovzxbd %xmm11,%xmm2 .byte 196,194,121,49,222 // vpmovzxbd %xmm14,%xmm3 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8 .byte 196,227,1,32,216,3 // vpinsrb $0x3,%eax,%xmm15,%xmm3 .byte 196,226,121,49,219 // vpmovzxbd %xmm3,%xmm3 .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_byte_tables_rgb_avx .globl _sk_byte_tables_rgb_avx FUNCTION(_sk_byte_tables_rgb_avx) _sk_byte_tables_rgb_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,24 // mov 0x18(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 196,65,121,110,193 // vmovd %r9d,%xmm8 .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 .byte 196,65,249,126,201 // vmovq %xmm9,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 76,139,24 // mov (%rax),%r11 .byte 196,131,121,32,4,19,0 // vpinsrb $0x0,(%r11,%r10,1),%xmm0,%xmm0 .byte 196,67,249,22,202,1 // vpextrq $0x1,%xmm9,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,3,121,32,20,11,1 // vpinsrb $0x1,(%r11,%r9,1),%xmm0,%xmm10 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,67,41,32,201,2 // vpinsrb $0x2,%r9d,%xmm10,%xmm9 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,49,32,202,3 // vpinsrb $0x3,%r10d,%xmm9,%xmm9 .byte 69,137,202 // mov %r9d,%r10d .byte 196,3,121,32,20,19,0 // vpinsrb $0x0,(%r11,%r10,1),%xmm0,%xmm10 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,41,32,4,11,1 // vpinsrb $0x1,(%r11,%r9,1),%xmm10,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,12,11 // movzbl (%r11,%r9,1),%r9d .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 71,15,182,20,19 // movzbl (%r11,%r10,1),%r10d .byte 196,67,121,32,218,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm11 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,4,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,121,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm0,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,2 // vpinsrb $0x2,%r10d,%xmm0,%xmm0 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 196,67,121,32,211,3 // vpinsrb $0x3,%r11d,%xmm0,%xmm10 .byte 69,137,211 // mov %r10d,%r11d .byte 196,131,121,32,4,25,0 // vpinsrb $0x0,(%r9,%r11,1),%xmm0,%xmm0 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,121,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm0,%xmm0 .byte 69,137,218 // mov %r11d,%r10d .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 196,195,121,32,194,2 // vpinsrb $0x2,%r10d,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 71,15,182,12,25 // movzbl (%r9,%r11,1),%r9d .byte 196,67,121,32,225,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm12 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 68,137,200 // mov %r9d,%eax .byte 196,195,121,32,20,2,0 // vpinsrb $0x0,(%r10,%rax,1),%xmm0,%xmm2 .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,105,32,20,10,1 // vpinsrb $0x1,(%r10,%r9,1),%xmm2,%xmm2 .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,195,105,32,209,2 // vpinsrb $0x2,%r9d,%xmm2,%xmm2 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,99,105,32,192,3 // vpinsrb $0x3,%eax,%xmm2,%xmm8 .byte 68,137,200 // mov %r9d,%eax .byte 196,195,121,32,12,2,0 // vpinsrb $0x0,(%r10,%rax,1),%xmm0,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,131,113,32,4,10,1 // vpinsrb $0x1,(%r10,%r9,1),%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax .byte 196,99,121,32,232,2 // vpinsrb $0x2,%eax,%xmm0,%xmm13 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,26 // movzbl (%r10,%r11,1),%eax .byte 196,194,121,49,193 // vpmovzxbd %xmm9,%xmm0 .byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,13,93,129,0,0 // vbroadcastss 0x815d(%rip),%ymm9 # af30 <_sk_clut_4D_avx+0x2299> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1 .byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8 .byte 196,227,17,32,208,3 // vpinsrb $0x3,%eax,%xmm13,%xmm2 .byte 196,226,121,49,210 // vpmovzxbd %xmm2,%xmm2 .byte 196,227,61,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm8,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_r_avx .globl _sk_table_r_avx FUNCTION(_sk_table_r_avx) _sk_table_r_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 .byte 196,99,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,65,122,16,12,129 // vmovss (%r9,%rax,4),%xmm9 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,49,33,12,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm9,%xmm9 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,20,129 // vmovss (%r9,%rax,4),%xmm10 .byte 196,65,249,126,194 // vmovq %xmm8,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,28,153 // vmovss (%r9,%r11,4),%xmm11 .byte 68,137,208 // mov %r10d,%eax .byte 196,193,122,16,4,129 // vmovss (%r9,%rax,4),%xmm0 .byte 196,67,249,22,195,1 // vpextrq $0x1,%xmm8,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,121,33,4,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm0,%xmm8 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,36,129 // vmovss (%r9,%rax,4),%xmm12 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,44,153 // vmovss (%r9,%r11,4),%xmm13 .byte 196,195,49,33,194,32 // vinsertps $0x20,%xmm10,%xmm9,%xmm0 .byte 196,67,121,33,203,48 // vinsertps $0x30,%xmm11,%xmm0,%xmm9 .byte 196,195,57,33,196,32 // vinsertps $0x20,%xmm12,%xmm8,%xmm0 .byte 196,195,121,33,197,48 // vinsertps $0x30,%xmm13,%xmm0,%xmm0 .byte 196,195,125,24,193,1 // vinsertf128 $0x1,%xmm9,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_g_avx .globl _sk_table_g_avx FUNCTION(_sk_table_g_avx) _sk_table_g_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8 .byte 196,99,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,65,122,16,12,129 // vmovss (%r9,%rax,4),%xmm9 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,49,33,12,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm9,%xmm9 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,20,129 // vmovss (%r9,%rax,4),%xmm10 .byte 196,65,249,126,194 // vmovq %xmm8,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,28,153 // vmovss (%r9,%r11,4),%xmm11 .byte 68,137,208 // mov %r10d,%eax .byte 196,193,122,16,12,129 // vmovss (%r9,%rax,4),%xmm1 .byte 196,67,249,22,195,1 // vpextrq $0x1,%xmm8,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,113,33,4,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm1,%xmm8 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,36,129 // vmovss (%r9,%rax,4),%xmm12 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,44,153 // vmovss (%r9,%r11,4),%xmm13 .byte 196,195,49,33,202,32 // vinsertps $0x20,%xmm10,%xmm9,%xmm1 .byte 196,67,113,33,203,48 // vinsertps $0x30,%xmm11,%xmm1,%xmm9 .byte 196,195,57,33,204,32 // vinsertps $0x20,%xmm12,%xmm8,%xmm1 .byte 196,195,113,33,205,48 // vinsertps $0x30,%xmm13,%xmm1,%xmm1 .byte 196,195,117,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_b_avx .globl _sk_table_b_avx FUNCTION(_sk_table_b_avx) _sk_table_b_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 .byte 196,99,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm2 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,65,122,16,12,129 // vmovss (%r9,%rax,4),%xmm9 .byte 196,195,249,22,211,1 // vpextrq $0x1,%xmm2,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,49,33,12,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm9,%xmm9 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,20,129 // vmovss (%r9,%rax,4),%xmm10 .byte 196,65,249,126,194 // vmovq %xmm8,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,28,153 // vmovss (%r9,%r11,4),%xmm11 .byte 68,137,208 // mov %r10d,%eax .byte 196,193,122,16,20,129 // vmovss (%r9,%rax,4),%xmm2 .byte 196,67,249,22,195,1 // vpextrq $0x1,%xmm8,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,105,33,4,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm2,%xmm8 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,36,129 // vmovss (%r9,%rax,4),%xmm12 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,44,153 // vmovss (%r9,%r11,4),%xmm13 .byte 196,195,49,33,210,32 // vinsertps $0x20,%xmm10,%xmm9,%xmm2 .byte 196,67,105,33,203,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm9 .byte 196,195,57,33,212,32 // vinsertps $0x20,%xmm12,%xmm8,%xmm2 .byte 196,195,105,33,213,48 // vinsertps $0x30,%xmm13,%xmm2,%xmm2 .byte 196,195,109,24,209,1 // vinsertf128 $0x1,%xmm9,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_table_a_avx .globl _sk_table_a_avx FUNCTION(_sk_table_a_avx) _sk_table_a_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8 .byte 196,99,125,25,195,1 // vextractf128 $0x1,%ymm8,%xmm3 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,65,122,16,12,129 // vmovss (%r9,%rax,4),%xmm9 .byte 196,195,249,22,219,1 // vpextrq $0x1,%xmm3,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,49,33,12,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm9,%xmm9 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,20,129 // vmovss (%r9,%rax,4),%xmm10 .byte 196,65,249,126,194 // vmovq %xmm8,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,28,153 // vmovss (%r9,%r11,4),%xmm11 .byte 68,137,208 // mov %r10d,%eax .byte 196,193,122,16,28,129 // vmovss (%r9,%rax,4),%xmm3 .byte 196,67,249,22,195,1 // vpextrq $0x1,%xmm8,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,3,97,33,4,145,16 // vinsertps $0x10,(%r9,%r10,4),%xmm3,%xmm8 .byte 68,137,216 // mov %r11d,%eax .byte 196,65,122,16,36,129 // vmovss (%r9,%rax,4),%xmm12 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,1,122,16,44,153 // vmovss (%r9,%r11,4),%xmm13 .byte 196,195,49,33,218,32 // vinsertps $0x20,%xmm10,%xmm9,%xmm3 .byte 196,67,97,33,203,48 // vinsertps $0x30,%xmm11,%xmm3,%xmm9 .byte 196,195,57,33,220,32 // vinsertps $0x20,%xmm12,%xmm8,%xmm3 .byte 196,195,97,33,221,48 // vinsertps $0x30,%xmm13,%xmm3,%xmm3 .byte 196,195,101,24,217,1 // vinsertf128 $0x1,%xmm9,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_r_avx .globl _sk_parametric_r_avx FUNCTION(_sk_parametric_r_avx) _sk_parametric_r_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,124,194,192,2 // vcmpleps %ymm8,%ymm0,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10 .byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11 .byte 196,98,125,24,37,10,126,0,0 // vbroadcastss 0x7e0a(%rip),%ymm12 # af34 <_sk_clut_4D_avx+0x229d> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,0,126,0,0 // vbroadcastss 0x7e00(%rip),%ymm12 # af38 <_sk_clut_4D_avx+0x22a1> .byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0 .byte 196,98,125,24,37,246,125,0,0 // vbroadcastss 0x7df6(%rip),%ymm12 # af3c <_sk_clut_4D_avx+0x22a5> .byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0 .byte 196,98,125,24,37,236,125,0,0 // vbroadcastss 0x7dec(%rip),%ymm12 # af40 <_sk_clut_4D_avx+0x22a9> .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,226,125,0,0 // vbroadcastss 0x7de2(%rip),%ymm12 # af44 <_sk_clut_4D_avx+0x22ad> .byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12 .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,211,125,0,0 // vbroadcastss 0x7dd3(%rip),%ymm12 # af48 <_sk_clut_4D_avx+0x22b1> .byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0 .byte 196,98,125,24,37,201,125,0,0 // vbroadcastss 0x7dc9(%rip),%ymm12 # af4c <_sk_clut_4D_avx+0x22b5> .byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 .byte 196,98,125,24,29,173,125,0,0 // vbroadcastss 0x7dad(%rip),%ymm11 # af50 <_sk_clut_4D_avx+0x22b9> .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,98,125,24,29,163,125,0,0 // vbroadcastss 0x7da3(%rip),%ymm11 # af54 <_sk_clut_4D_avx+0x22bd> .byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11 .byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0 .byte 196,98,125,24,29,148,125,0,0 // vbroadcastss 0x7d94(%rip),%ymm11 # af58 <_sk_clut_4D_avx+0x22c1> .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,98,125,24,29,138,125,0,0 // vbroadcastss 0x7d8a(%rip),%ymm11 # af5c <_sk_clut_4D_avx+0x22c5> .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 .byte 196,98,125,24,21,123,125,0,0 // vbroadcastss 0x7d7b(%rip),%ymm10 # af60 <_sk_clut_4D_avx+0x22c9> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 .byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,5,82,125,0,0 // vbroadcastss 0x7d52(%rip),%ymm8 # af64 <_sk_clut_4D_avx+0x22cd> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_g_avx .globl _sk_parametric_g_avx FUNCTION(_sk_parametric_g_avx) _sk_parametric_g_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,116,194,192,2 // vcmpleps %ymm8,%ymm1,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1 .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10 .byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11 .byte 196,98,125,24,37,3,125,0,0 // vbroadcastss 0x7d03(%rip),%ymm12 # af68 <_sk_clut_4D_avx+0x22d1> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,249,124,0,0 // vbroadcastss 0x7cf9(%rip),%ymm12 # af6c <_sk_clut_4D_avx+0x22d5> .byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1 .byte 196,98,125,24,37,239,124,0,0 // vbroadcastss 0x7cef(%rip),%ymm12 # af70 <_sk_clut_4D_avx+0x22d9> .byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1 .byte 196,98,125,24,37,229,124,0,0 // vbroadcastss 0x7ce5(%rip),%ymm12 # af74 <_sk_clut_4D_avx+0x22dd> .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,219,124,0,0 // vbroadcastss 0x7cdb(%rip),%ymm12 # af78 <_sk_clut_4D_avx+0x22e1> .byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12 .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,204,124,0,0 // vbroadcastss 0x7ccc(%rip),%ymm12 # af7c <_sk_clut_4D_avx+0x22e5> .byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1 .byte 196,98,125,24,37,194,124,0,0 // vbroadcastss 0x7cc2(%rip),%ymm12 # af80 <_sk_clut_4D_avx+0x22e9> .byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1 .byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1 .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1 .byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10 .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10 .byte 196,98,125,24,29,166,124,0,0 // vbroadcastss 0x7ca6(%rip),%ymm11 # af84 <_sk_clut_4D_avx+0x22ed> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,29,156,124,0,0 // vbroadcastss 0x7c9c(%rip),%ymm11 # af88 <_sk_clut_4D_avx+0x22f1> .byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11 .byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,29,141,124,0,0 // vbroadcastss 0x7c8d(%rip),%ymm11 # af8c <_sk_clut_4D_avx+0x22f5> .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,98,125,24,29,131,124,0,0 // vbroadcastss 0x7c83(%rip),%ymm11 # af90 <_sk_clut_4D_avx+0x22f9> .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,98,125,24,21,116,124,0,0 // vbroadcastss 0x7c74(%rip),%ymm10 # af94 <_sk_clut_4D_avx+0x22fd> .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,98,125,24,5,75,124,0,0 // vbroadcastss 0x7c4b(%rip),%ymm8 # af98 <_sk_clut_4D_avx+0x2301> .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_b_avx .globl _sk_parametric_b_avx FUNCTION(_sk_parametric_b_avx) _sk_parametric_b_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,108,194,192,2 // vcmpleps %ymm8,%ymm2,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10 .byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11 .byte 196,98,125,24,37,252,123,0,0 // vbroadcastss 0x7bfc(%rip),%ymm12 # af9c <_sk_clut_4D_avx+0x2305> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,242,123,0,0 // vbroadcastss 0x7bf2(%rip),%ymm12 # afa0 <_sk_clut_4D_avx+0x2309> .byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2 .byte 196,98,125,24,37,232,123,0,0 // vbroadcastss 0x7be8(%rip),%ymm12 # afa4 <_sk_clut_4D_avx+0x230d> .byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2 .byte 196,98,125,24,37,222,123,0,0 // vbroadcastss 0x7bde(%rip),%ymm12 # afa8 <_sk_clut_4D_avx+0x2311> .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,212,123,0,0 // vbroadcastss 0x7bd4(%rip),%ymm12 # afac <_sk_clut_4D_avx+0x2315> .byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12 .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,197,123,0,0 // vbroadcastss 0x7bc5(%rip),%ymm12 # afb0 <_sk_clut_4D_avx+0x2319> .byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2 .byte 196,98,125,24,37,187,123,0,0 // vbroadcastss 0x7bbb(%rip),%ymm12 # afb4 <_sk_clut_4D_avx+0x231d> .byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2 .byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10 .byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10 .byte 196,98,125,24,29,159,123,0,0 // vbroadcastss 0x7b9f(%rip),%ymm11 # afb8 <_sk_clut_4D_avx+0x2321> .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,98,125,24,29,149,123,0,0 // vbroadcastss 0x7b95(%rip),%ymm11 # afbc <_sk_clut_4D_avx+0x2325> .byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11 .byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2 .byte 196,98,125,24,29,134,123,0,0 // vbroadcastss 0x7b86(%rip),%ymm11 # afc0 <_sk_clut_4D_avx+0x2329> .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,98,125,24,29,124,123,0,0 // vbroadcastss 0x7b7c(%rip),%ymm11 # afc4 <_sk_clut_4D_avx+0x232d> .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 196,98,125,24,21,109,123,0,0 // vbroadcastss 0x7b6d(%rip),%ymm10 # afc8 <_sk_clut_4D_avx+0x2331> .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 .byte 196,98,125,24,5,68,123,0,0 // vbroadcastss 0x7b44(%rip),%ymm8 # afcc <_sk_clut_4D_avx+0x2335> .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_a_avx .globl _sk_parametric_a_avx FUNCTION(_sk_parametric_a_avx) _sk_parametric_a_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8 .byte 196,65,100,194,192,2 // vcmpleps %ymm8,%ymm3,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10 .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11 .byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3 .byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3 .byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10 .byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11 .byte 196,98,125,24,37,245,122,0,0 // vbroadcastss 0x7af5(%rip),%ymm12 # afd0 <_sk_clut_4D_avx+0x2339> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,235,122,0,0 // vbroadcastss 0x7aeb(%rip),%ymm12 # afd4 <_sk_clut_4D_avx+0x233d> .byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3 .byte 196,98,125,24,37,225,122,0,0 // vbroadcastss 0x7ae1(%rip),%ymm12 # afd8 <_sk_clut_4D_avx+0x2341> .byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3 .byte 196,98,125,24,37,215,122,0,0 // vbroadcastss 0x7ad7(%rip),%ymm12 # afdc <_sk_clut_4D_avx+0x2345> .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,205,122,0,0 // vbroadcastss 0x7acd(%rip),%ymm12 # afe0 <_sk_clut_4D_avx+0x2349> .byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12 .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 .byte 196,98,125,24,37,190,122,0,0 // vbroadcastss 0x7abe(%rip),%ymm12 # afe4 <_sk_clut_4D_avx+0x234d> .byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3 .byte 196,98,125,24,37,180,122,0,0 // vbroadcastss 0x7ab4(%rip),%ymm12 # afe8 <_sk_clut_4D_avx+0x2351> .byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3 .byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3 .byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3 .byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10 .byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10 .byte 196,98,125,24,29,152,122,0,0 // vbroadcastss 0x7a98(%rip),%ymm11 # afec <_sk_clut_4D_avx+0x2355> .byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3 .byte 196,98,125,24,29,142,122,0,0 // vbroadcastss 0x7a8e(%rip),%ymm11 # aff0 <_sk_clut_4D_avx+0x2359> .byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11 .byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3 .byte 196,98,125,24,29,127,122,0,0 // vbroadcastss 0x7a7f(%rip),%ymm11 # aff4 <_sk_clut_4D_avx+0x235d> .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10 .byte 196,98,125,24,29,117,122,0,0 // vbroadcastss 0x7a75(%rip),%ymm11 # aff8 <_sk_clut_4D_avx+0x2361> .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10 .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 .byte 196,98,125,24,21,102,122,0,0 // vbroadcastss 0x7a66(%rip),%ymm10 # affc <_sk_clut_4D_avx+0x2365> .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 .byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3 .byte 196,98,125,24,5,61,122,0,0 // vbroadcastss 0x7a3d(%rip),%ymm8 # b000 <_sk_clut_4D_avx+0x2369> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_gamma_avx .globl _sk_gamma_avx FUNCTION(_sk_gamma_avx) _sk_gamma_avx: .byte 72,131,236,88 // sub $0x58,%rsp .byte 197,252,17,124,36,32 // vmovups %ymm7,0x20(%rsp) .byte 197,252,17,52,36 // vmovups %ymm6,(%rsp) .byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp) .byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp) .byte 197,252,17,92,36,160 // vmovups %ymm3,-0x60(%rsp) .byte 197,252,40,250 // vmovaps %ymm2,%ymm7 .byte 197,252,40,233 // vmovaps %ymm1,%ymm5 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1 .byte 196,98,125,24,5,0,122,0,0 // vbroadcastss 0x7a00(%rip),%ymm8 # b004 <_sk_clut_4D_avx+0x236d> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,98,125,24,13,246,121,0,0 // vbroadcastss 0x79f6(%rip),%ymm9 # b008 <_sk_clut_4D_avx+0x2371> .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0 .byte 196,226,125,24,37,236,121,0,0 // vbroadcastss 0x79ec(%rip),%ymm4 # b00c <_sk_clut_4D_avx+0x2375> .byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0 .byte 196,98,125,24,21,227,121,0,0 // vbroadcastss 0x79e3(%rip),%ymm10 # b010 <_sk_clut_4D_avx+0x2379> .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,98,125,24,29,217,121,0,0 // vbroadcastss 0x79d9(%rip),%ymm11 # b014 <_sk_clut_4D_avx+0x237d> .byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2 .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1 .byte 196,98,125,24,37,203,121,0,0 // vbroadcastss 0x79cb(%rip),%ymm12 # b018 <_sk_clut_4D_avx+0x2381> .byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0 .byte 196,98,125,24,45,193,121,0,0 // vbroadcastss 0x79c1(%rip),%ymm13 # b01c <_sk_clut_4D_avx+0x2385> .byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0 .byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0 .byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1 .byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6 .byte 196,98,125,24,61,160,121,0,0 // vbroadcastss 0x79a0(%rip),%ymm15 # b020 <_sk_clut_4D_avx+0x2389> .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0 .byte 196,226,125,24,29,150,121,0,0 // vbroadcastss 0x7996(%rip),%ymm3 # b024 <_sk_clut_4D_avx+0x238d> .byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1 .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1 .byte 196,226,125,24,21,137,121,0,0 // vbroadcastss 0x7989(%rip),%ymm2 # b028 <_sk_clut_4D_avx+0x2391> .byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0 .byte 196,226,125,24,53,128,121,0,0 // vbroadcastss 0x7980(%rip),%ymm6 # b02c <_sk_clut_4D_avx+0x2395> .byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp) .byte 197,252,91,205 // vcvtdq2ps %ymm5,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,193,84,84,233 // vandps %ymm9,%ymm5,%ymm5 .byte 197,212,86,236 // vorps %ymm4,%ymm5,%ymm5 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,193,84,89,195 // vmulps %ymm11,%ymm5,%ymm0 .byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0 .byte 196,193,84,88,204 // vaddps %ymm12,%ymm5,%ymm1 .byte 197,148,94,201 // vdivps %ymm1,%ymm13,%ymm1 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0 .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1 .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1 .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0 .byte 197,244,89,235 // vmulps %ymm3,%ymm1,%ymm5 .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0 .byte 197,236,92,201 // vsubps %ymm1,%ymm2,%ymm1 .byte 197,204,94,201 // vdivps %ymm1,%ymm6,%ymm1 .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,91,207 // vcvtdq2ps %ymm7,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,193,68,84,233 // vandps %ymm9,%ymm7,%ymm5 .byte 197,212,86,228 // vorps %ymm4,%ymm5,%ymm4 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,193,92,89,235 // vmulps %ymm11,%ymm4,%ymm5 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 196,193,92,88,228 // vaddps %ymm12,%ymm4,%ymm4 .byte 197,148,94,228 // vdivps %ymm4,%ymm13,%ymm4 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1 .byte 196,227,125,8,225,1 // vroundps $0x1,%ymm1,%ymm4 .byte 197,244,92,228 // vsubps %ymm4,%ymm1,%ymm4 .byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1 .byte 197,220,89,219 // vmulps %ymm3,%ymm4,%ymm3 .byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1 .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2 .byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2 .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1 .byte 196,226,125,24,21,195,120,0,0 // vbroadcastss 0x78c3(%rip),%ymm2 # b030 <_sk_clut_4D_avx+0x2399> .byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3 .byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4 .byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2 .byte 197,253,91,195 // vcvtps2dq %ymm3,%ymm0 .byte 197,253,91,204 // vcvtps2dq %ymm4,%ymm1 .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,92,36,160 // vmovups -0x60(%rsp),%ymm3 .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4 .byte 197,252,16,108,36,224 // vmovups -0x20(%rsp),%ymm5 .byte 197,252,16,52,36 // vmovups (%rsp),%ymm6 .byte 197,252,16,124,36,32 // vmovups 0x20(%rsp),%ymm7 .byte 72,131,196,88 // add $0x58,%rsp .byte 255,224 // jmpq *%rax HIDDEN _sk_lab_to_xyz_avx .globl _sk_lab_to_xyz_avx FUNCTION(_sk_lab_to_xyz_avx) _sk_lab_to_xyz_avx: .byte 196,98,125,24,5,127,120,0,0 // vbroadcastss 0x787f(%rip),%ymm8 # b034 <_sk_clut_4D_avx+0x239d> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,5,117,120,0,0 // vbroadcastss 0x7875(%rip),%ymm8 # b038 <_sk_clut_4D_avx+0x23a1> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,98,125,24,13,107,120,0,0 // vbroadcastss 0x786b(%rip),%ymm9 # b03c <_sk_clut_4D_avx+0x23a5> .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2 .byte 196,98,125,24,5,87,120,0,0 // vbroadcastss 0x7857(%rip),%ymm8 # b040 <_sk_clut_4D_avx+0x23a9> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,5,77,120,0,0 // vbroadcastss 0x784d(%rip),%ymm8 # b044 <_sk_clut_4D_avx+0x23ad> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,5,67,120,0,0 // vbroadcastss 0x7843(%rip),%ymm8 # b048 <_sk_clut_4D_avx+0x23b1> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1 .byte 196,98,125,24,5,53,120,0,0 // vbroadcastss 0x7835(%rip),%ymm8 # b04c <_sk_clut_4D_avx+0x23b5> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2 .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8 .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8 .byte 196,98,125,24,13,30,120,0,0 // vbroadcastss 0x781e(%rip),%ymm9 # b050 <_sk_clut_4D_avx+0x23b9> .byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10 .byte 196,98,125,24,29,19,120,0,0 // vbroadcastss 0x7813(%rip),%ymm11 # b054 <_sk_clut_4D_avx+0x23bd> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,98,125,24,37,9,120,0,0 // vbroadcastss 0x7809(%rip),%ymm12 # b058 <_sk_clut_4D_avx+0x23c1> .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1 .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8 .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1 .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1 .byte 197,52,194,209,1 // vcmpltps %ymm1,%ymm9,%ymm10 .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0 .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1 .byte 197,236,89,194 // vmulps %ymm2,%ymm2,%ymm0 .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0 .byte 197,52,194,200,1 // vcmpltps %ymm0,%ymm9,%ymm9 .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2 .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2 .byte 196,226,125,24,5,191,119,0,0 // vbroadcastss 0x77bf(%rip),%ymm0 # b05c <_sk_clut_4D_avx+0x23c5> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,98,125,24,5,182,119,0,0 // vbroadcastss 0x77b6(%rip),%ymm8 # b060 <_sk_clut_4D_avx+0x23c9> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_load_a8_avx .globl _sk_load_a8_avx FUNCTION(_sk_load_a8_avx) _sk_load_a8_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,67 // jne 390f <_sk_load_a8_avx+0x5c> .byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0 .byte 197,249,219,5,166,122,0,0 // vpand 0x7aa6(%rip),%xmm0,%xmm0 # b380 <_sk_clut_4D_avx+0x26e9> .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,106,119,0,0 // vbroadcastss 0x776a(%rip),%ymm1 # b064 <_sk_clut_4D_avx+0x23cd> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,175 // ja 38d2 <_sk_load_a8_avx+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,122,0,0,0 // lea 0x7a(%rip),%r11 # 39a8 <_sk_load_a8_avx+0xf5> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 235,144 // jmp 38d2 <_sk_load_a8_avx+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 .byte 233,104,255,255,255 // jmpq 38d2 <_sk_load_a8_avx+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0 .byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 .byte 233,45,255,255,255 // jmpq 38d2 <_sk_load_a8_avx+0x1f> .byte 15,31,0 // nopl (%rax) .byte 143 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,169,255,255,255,154 // ljmp *-0x65000001(%rcx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255,194 // inc %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_a8_dst_avx .globl _sk_load_a8_dst_avx FUNCTION(_sk_load_a8_dst_avx) _sk_load_a8_dst_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,67 // jne 3a20 <_sk_load_a8_dst_avx+0x5c> .byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4 .byte 197,217,219,37,165,121,0,0 // vpand 0x79a5(%rip),%xmm4,%xmm4 # b390 <_sk_clut_4D_avx+0x26f9> .byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5 .byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,93,118,0,0 // vbroadcastss 0x765d(%rip),%ymm5 # b068 <_sk_clut_4D_avx+0x23d1> .byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,175 // ja 39e3 <_sk_load_a8_dst_avx+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,121,0,0,0 // lea 0x79(%rip),%r11 # 3ab8 <_sk_load_a8_dst_avx+0xf4> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 235,144 // jmp 39e3 <_sk_load_a8_dst_avx+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 .byte 233,104,255,255,255 // jmpq 39e3 <_sk_load_a8_dst_avx+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4 .byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 .byte 233,45,255,255,255 // jmpq 39e3 <_sk_load_a8_dst_avx+0x1f> .byte 102,144 // xchg %ax,%ax .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,221 // callq ffffffffde003ac8 <_sk_clut_4D_avx+0xffffffffddffae31> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_a8_avx .globl _sk_gather_a8_avx FUNCTION(_sk_gather_a8_avx) _sk_gather_a8_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,241,254,192 // vpaddd %xmm0,%xmm1,%xmm0 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,32,20,1,0 // vpinsrb $0x0,(%r9,%rax,1),%xmm0,%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,12,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,2 // vpinsrb $0x2,%eax,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 196,227,113,32,200,3 // vpinsrb $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,32,20,1,0 // vpinsrb $0x0,(%r9,%rax,1),%xmm0,%xmm2 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1 .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0 .byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,204,116,0,0 // vbroadcastss 0x74cc(%rip),%ymm1 # b06c <_sk_clut_4D_avx+0x23d5> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_store_a8_avx .globl _sk_store_a8_avx FUNCTION(_sk_store_a8_avx) _sk_store_a8_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 196,98,125,24,5,159,116,0,0 // vbroadcastss 0x749f(%rip),%ymm8 # b070 <_sk_clut_4D_avx+0x23d9> .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 3bfb <_sk_store_a8_avx+0x47> .byte 196,65,123,17,4,25 // vmovsd %xmm8,(%r9,%rbx,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,235 // ja 3bf6 <_sk_store_a8_avx+0x42> .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8 .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,85,0,0,0 // lea 0x55(%rip),%r11 # 3c70 <_sk_store_a8_avx+0xbc> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,20,4,25,0 // vpextrb $0x0,%xmm8,(%r9,%rbx,1) .byte 235,201 // jmp 3bf6 <_sk_store_a8_avx+0x42> .byte 196,67,121,20,68,25,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rbx,1) .byte 196,98,57,0,5,98,119,0,0 // vpshufb 0x7762(%rip),%xmm8,%xmm8 # b3a0 <_sk_clut_4D_avx+0x2709> .byte 196,67,121,21,4,25,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,1) .byte 235,175 // jmp 3bf6 <_sk_store_a8_avx+0x42> .byte 196,67,121,20,68,25,6,12 // vpextrb $0xc,%xmm8,0x6(%r9,%rbx,1) .byte 196,67,121,20,68,25,5,10 // vpextrb $0xa,%xmm8,0x5(%r9,%rbx,1) .byte 196,67,121,20,68,25,4,8 // vpextrb $0x8,%xmm8,0x4(%r9,%rbx,1) .byte 196,98,57,0,5,72,119,0,0 // vpshufb 0x7748(%rip),%xmm8,%xmm8 # b3b0 <_sk_clut_4D_avx+0x2719> .byte 196,65,121,126,4,25 // vmovd %xmm8,(%r9,%rbx,1) .byte 235,134 // jmp 3bf6 <_sk_store_a8_avx+0x42> .byte 180,255 // mov $0xff,%ah .byte 255 // (bad) .byte 255,197 // inc %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 189,255,255,255,239 // mov $0xefffffff,%ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_g8_avx .globl _sk_load_g8_avx FUNCTION(_sk_load_g8_avx) _sk_load_g8_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,72 // jne 3ced <_sk_load_g8_avx+0x61> .byte 196,194,121,48,4,25 // vpmovzxbw (%r9,%rbx,1),%xmm0 .byte 197,249,219,5,13,119,0,0 // vpand 0x770d(%rip),%xmm0,%xmm0 # b3c0 <_sk_clut_4D_avx+0x2729> .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,161,115,0,0 // vbroadcastss 0x73a1(%rip),%ymm1 # b074 <_sk_clut_4D_avx+0x23dd> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,150,115,0,0 // vbroadcastss 0x7396(%rip),%ymm3 # b078 <_sk_clut_4D_avx+0x23e1> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,170 // ja 3cab <_sk_load_g8_avx+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,120,0,0,0 // lea 0x78(%rip),%r11 # 3d84 <_sk_load_g8_avx+0xf8> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 235,139 // jmp 3cab <_sk_load_g8_avx+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 .byte 233,99,255,255,255 // jmpq 3cab <_sk_load_g8_avx+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0 .byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 .byte 233,40,255,255,255 // jmpq 3cab <_sk_load_g8_avx+0x1f> .byte 144 // nop .byte 145 // xchg %eax,%ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255,171,255,255,255,156 // ljmp *-0x63000001(%rbx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 233,255,255,255,222 // jmpq ffffffffdf003d94 <_sk_clut_4D_avx+0xffffffffdeffb0fd> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx .byte 255 // (bad) .byte 255 // (bad) .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_g8_dst_avx .globl _sk_load_g8_dst_avx FUNCTION(_sk_load_g8_dst_avx) _sk_load_g8_dst_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 117,72 // jne 3e01 <_sk_load_g8_dst_avx+0x61> .byte 196,194,121,48,36,25 // vpmovzxbw (%r9,%rbx,1),%xmm4 .byte 197,217,219,37,9,118,0,0 // vpand 0x7609(%rip),%xmm4,%xmm4 # b3d0 <_sk_clut_4D_avx+0x2739> .byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5 .byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,149,114,0,0 // vbroadcastss 0x7295(%rip),%ymm5 # b07c <_sk_clut_4D_avx+0x23e5> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,61,138,114,0,0 // vbroadcastss 0x728a(%rip),%ymm7 # b080 <_sk_clut_4D_avx+0x23e9> .byte 197,252,40,236 // vmovaps %ymm4,%ymm5 .byte 197,252,40,244 // vmovaps %ymm4,%ymm6 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,170 // ja 3dbf <_sk_load_g8_dst_avx+0x1f> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,120,0,0,0 // lea 0x78(%rip),%r11 # 3e98 <_sk_load_g8_dst_avx+0xf8> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 235,139 // jmp 3dbf <_sk_load_g8_dst_avx+0x1f> .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 .byte 233,99,255,255,255 // jmpq 3dbf <_sk_load_g8_dst_avx+0x1f> .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4 .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4 .byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 .byte 233,40,255,255,255 // jmpq 3dbf <_sk_load_g8_dst_avx+0x1f> .byte 144 // nop .byte 145 // xchg %eax,%ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255,171,255,255,255,156 // ljmp *-0x63000001(%rbx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 233,255,255,255,222 // jmpq ffffffffdf003ea8 <_sk_clut_4D_avx+0xffffffffdeffb211> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx .byte 255 // (bad) .byte 255 // (bad) .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_g8_avx .globl _sk_gather_g8_avx FUNCTION(_sk_gather_g8_avx) _sk_gather_g8_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,241,254,192 // vpaddd %xmm0,%xmm1,%xmm0 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,32,20,1,0 // vpinsrb $0x0,(%r9,%rax,1),%xmm0,%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,12,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,2 // vpinsrb $0x2,%eax,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 196,227,113,32,200,3 // vpinsrb $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,32,20,1,0 // vpinsrb $0x0,(%r9,%rax,1),%xmm0,%xmm2 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,32,4,17,1 // vpinsrb $0x1,(%r9,%r10,1),%xmm2,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1 .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0 .byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,4,113,0,0 // vbroadcastss 0x7104(%rip),%ymm1 # b084 <_sk_clut_4D_avx+0x23ed> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,249,112,0,0 // vbroadcastss 0x70f9(%rip),%ymm3 # b088 <_sk_clut_4D_avx+0x23f1> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_565_avx .globl _sk_load_565_avx FUNCTION(_sk_load_565_avx) _sk_load_565_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,129,0,0,0 // jne 403a <_sk_load_565_avx+0xa1> .byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm2 .byte 196,226,125,24,5,177,112,0,0 // vbroadcastss 0x70b1(%rip),%ymm0 # b08c <_sk_clut_4D_avx+0x23f5> .byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,164,112,0,0 // vbroadcastss 0x70a4(%rip),%ymm1 # b090 <_sk_clut_4D_avx+0x23f9> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,24,13,155,112,0,0 // vbroadcastss 0x709b(%rip),%ymm1 # b094 <_sk_clut_4D_avx+0x23fd> .byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,29,142,112,0,0 // vbroadcastss 0x708e(%rip),%ymm3 # b098 <_sk_clut_4D_avx+0x2401> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 196,226,125,24,29,133,112,0,0 // vbroadcastss 0x7085(%rip),%ymm3 # b09c <_sk_clut_4D_avx+0x2405> .byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,226,125,24,29,120,112,0,0 // vbroadcastss 0x7078(%rip),%ymm3 # b0a0 <_sk_clut_4D_avx+0x2409> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,109,112,0,0 // vbroadcastss 0x706d(%rip),%ymm3 # b0a4 <_sk_clut_4D_avx+0x240d> .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,109,255,255,255 // ja 3fbf <_sk_load_565_avx+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,99,0,0,0 // lea 0x63(%rip),%r11 # 40c0 <_sk_load_565_avx+0x127> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 233,75,255,255,255 // jmpq 3fbf <_sk_load_565_avx+0x26> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 .byte 233,46,255,255,255 // jmpq 3fbf <_sk_load_565_avx+0x26> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 .byte 233,1,255,255,255 // jmpq 3fbf <_sk_load_565_avx+0x26> .byte 102,144 // xchg %ax,%ax .byte 166 // cmpsb %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,192 // inc %eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,180,255,255,255,237,255 // pushq -0x120001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 221,255 // (bad) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_565_dst_avx .globl _sk_load_565_dst_avx FUNCTION(_sk_load_565_dst_avx) _sk_load_565_dst_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,129,0,0,0 // jne 417d <_sk_load_565_dst_avx+0xa1> .byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4 .byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5 .byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,245,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm6 .byte 196,226,125,24,37,138,111,0,0 // vbroadcastss 0x6f8a(%rip),%ymm4 # b0a8 <_sk_clut_4D_avx+0x2411> .byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,125,111,0,0 // vbroadcastss 0x6f7d(%rip),%ymm5 # b0ac <_sk_clut_4D_avx+0x2415> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 196,226,125,24,45,116,111,0,0 // vbroadcastss 0x6f74(%rip),%ymm5 # b0b0 <_sk_clut_4D_avx+0x2419> .byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,226,125,24,61,103,111,0,0 // vbroadcastss 0x6f67(%rip),%ymm7 # b0b4 <_sk_clut_4D_avx+0x241d> .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5 .byte 196,226,125,24,61,94,111,0,0 // vbroadcastss 0x6f5e(%rip),%ymm7 # b0b8 <_sk_clut_4D_avx+0x2421> .byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,226,125,24,61,81,111,0,0 // vbroadcastss 0x6f51(%rip),%ymm7 # b0bc <_sk_clut_4D_avx+0x2425> .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,61,70,111,0,0 // vbroadcastss 0x6f46(%rip),%ymm7 # b0c0 <_sk_clut_4D_avx+0x2429> .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,109,255,255,255 // ja 4102 <_sk_load_565_dst_avx+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 4204 <_sk_load_565_dst_avx+0x128> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 233,75,255,255,255 // jmpq 4102 <_sk_load_565_dst_avx+0x26> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 .byte 233,46,255,255,255 // jmpq 4102 <_sk_load_565_dst_avx+0x26> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 .byte 233,1,255,255,255 // jmpq 4102 <_sk_load_565_dst_avx+0x26> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 236 // in (%dx),%al .byte 255 // (bad) .byte 255 // (bad) .byte 255,228 // jmpq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,208 // callq *%rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_565_avx .globl _sk_gather_565_avx FUNCTION(_sk_gather_565_avx) _sk_gather_565_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,241,254,192 // vpaddd %xmm0,%xmm1,%xmm0 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,233,196,200,1 // vpinsrw $0x1,%eax,%xmm2,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,2 // vpinsrw $0x2,%eax,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,241,196,200,3 // vpinsrw $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,4 // vpinsrw $0x4,%eax,%xmm1,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,241,196,192,5 // vpinsrw $0x5,%eax,%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm2 .byte 196,226,125,24,5,210,109,0,0 // vbroadcastss 0x6dd2(%rip),%ymm0 # b0c4 <_sk_clut_4D_avx+0x242d> .byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,197,109,0,0 // vbroadcastss 0x6dc5(%rip),%ymm1 # b0c8 <_sk_clut_4D_avx+0x2431> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,24,13,188,109,0,0 // vbroadcastss 0x6dbc(%rip),%ymm1 # b0cc <_sk_clut_4D_avx+0x2435> .byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,29,175,109,0,0 // vbroadcastss 0x6daf(%rip),%ymm3 # b0d0 <_sk_clut_4D_avx+0x2439> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 196,226,125,24,29,166,109,0,0 // vbroadcastss 0x6da6(%rip),%ymm3 # b0d4 <_sk_clut_4D_avx+0x243d> .byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,226,125,24,29,153,109,0,0 // vbroadcastss 0x6d99(%rip),%ymm3 # b0d8 <_sk_clut_4D_avx+0x2441> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,142,109,0,0 // vbroadcastss 0x6d8e(%rip),%ymm3 # b0dc <_sk_clut_4D_avx+0x2445> .byte 255,224 // jmpq *%rax HIDDEN _sk_store_565_avx .globl _sk_store_565_avx FUNCTION(_sk_store_565_avx) _sk_store_565_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 196,98,125,24,5,112,109,0,0 // vbroadcastss 0x6d70(%rip),%ymm8 # b0e0 <_sk_clut_4D_avx+0x2449> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10 .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 .byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,98,125,24,21,73,109,0,0 // vbroadcastss 0x6d49(%rip),%ymm10 # b0e4 <_sk_clut_4D_avx+0x244d> .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 43ec <_sk_store_565_avx+0x9c> .byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,235 // ja 43e7 <_sk_store_565_avx+0x97> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,69,0,0,0 // lea 0x45(%rip),%r11 # 444c <_sk_store_565_avx+0xfc> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2) .byte 235,206 // jmp 43e7 <_sk_store_565_avx+0x97> .byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2) .byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2) .byte 235,190 // jmp 43e7 <_sk_store_565_avx+0x97> .byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2) .byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2) .byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2) .byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2) .byte 235,158 // jmp 43e7 <_sk_store_565_avx+0x97> .byte 15,31,0 // nopl (%rax) .byte 196 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,213 // callq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255,205 // dec %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255,245 // push %rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 237 // in (%dx),%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 221,255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_4444_avx .globl _sk_load_4444_avx FUNCTION(_sk_load_4444_avx) _sk_load_4444_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,153,0,0,0 // jne 4521 <_sk_load_4444_avx+0xb9> .byte 196,193,122,111,4,89 // vmovdqu (%r9,%rbx,2),%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm3 .byte 196,226,125,24,5,62,108,0,0 // vbroadcastss 0x6c3e(%rip),%ymm0 # b0e8 <_sk_clut_4D_avx+0x2451> .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,49,108,0,0 // vbroadcastss 0x6c31(%rip),%ymm1 # b0ec <_sk_clut_4D_avx+0x2455> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,24,13,40,108,0,0 // vbroadcastss 0x6c28(%rip),%ymm1 # b0f0 <_sk_clut_4D_avx+0x2459> .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,21,27,108,0,0 // vbroadcastss 0x6c1b(%rip),%ymm2 # b0f4 <_sk_clut_4D_avx+0x245d> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 .byte 196,226,125,24,21,18,108,0,0 // vbroadcastss 0x6c12(%rip),%ymm2 # b0f8 <_sk_clut_4D_avx+0x2461> .byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,98,125,24,5,5,108,0,0 // vbroadcastss 0x6c05(%rip),%ymm8 # b0fc <_sk_clut_4D_avx+0x2465> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,98,125,24,5,251,107,0,0 // vbroadcastss 0x6bfb(%rip),%ymm8 # b100 <_sk_clut_4D_avx+0x2469> .byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,98,125,24,5,237,107,0,0 // vbroadcastss 0x6bed(%rip),%ymm8 # b104 <_sk_clut_4D_avx+0x246d> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,85,255,255,255 // ja 448e <_sk_load_4444_avx+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 45a8 <_sk_load_4444_avx+0x140> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 233,51,255,255,255 // jmpq 448e <_sk_load_4444_avx+0x26> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,110,12,89 // vmovd (%r9,%rbx,2),%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 .byte 233,22,255,255,255 // jmpq 448e <_sk_load_4444_avx+0x26> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,68,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,121,196,68,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm0,%xmm0 .byte 196,193,122,126,12,89 // vmovq (%r9,%rbx,2),%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 .byte 233,233,254,255,255 // jmpq 448e <_sk_load_4444_avx+0x26> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 236 // in (%dx),%al .byte 255 // (bad) .byte 255 // (bad) .byte 255,228 // jmpq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,208 // callq *%rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_4444_dst_avx .globl _sk_load_4444_dst_avx FUNCTION(_sk_load_4444_dst_avx) _sk_load_4444_dst_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 77,133,192 // test %r8,%r8 .byte 15,133,153,0,0,0 // jne 467d <_sk_load_4444_dst_avx+0xb9> .byte 196,193,122,111,36,89 // vmovdqu (%r9,%rbx,2),%xmm4 .byte 197,209,239,237 // vpxor %xmm5,%xmm5,%xmm5 .byte 197,217,105,237 // vpunpckhwd %xmm5,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,253,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm7 .byte 196,226,125,24,37,2,107,0,0 // vbroadcastss 0x6b02(%rip),%ymm4 # b108 <_sk_clut_4D_avx+0x2471> .byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,226,125,24,45,245,106,0,0 // vbroadcastss 0x6af5(%rip),%ymm5 # b10c <_sk_clut_4D_avx+0x2475> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 196,226,125,24,45,236,106,0,0 // vbroadcastss 0x6aec(%rip),%ymm5 # b110 <_sk_clut_4D_avx+0x2479> .byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,226,125,24,53,223,106,0,0 // vbroadcastss 0x6adf(%rip),%ymm6 # b114 <_sk_clut_4D_avx+0x247d> .byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5 .byte 196,226,125,24,53,214,106,0,0 // vbroadcastss 0x6ad6(%rip),%ymm6 # b118 <_sk_clut_4D_avx+0x2481> .byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,98,125,24,5,201,106,0,0 // vbroadcastss 0x6ac9(%rip),%ymm8 # b11c <_sk_clut_4D_avx+0x2485> .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 .byte 196,98,125,24,5,191,106,0,0 // vbroadcastss 0x6abf(%rip),%ymm8 # b120 <_sk_clut_4D_avx+0x2489> .byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,98,125,24,5,177,106,0,0 // vbroadcastss 0x6ab1(%rip),%ymm8 # b124 <_sk_clut_4D_avx+0x248d> .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 15,135,85,255,255,255 // ja 45ea <_sk_load_4444_dst_avx+0x26> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,100,0,0,0 // lea 0x64(%rip),%r11 # 4704 <_sk_load_4444_dst_avx+0x140> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,89 // movzwl (%r9,%rbx,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 .byte 233,51,255,255,255 // jmpq 45ea <_sk_load_4444_dst_avx+0x26> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,4,2 // vpinsrw $0x2,0x4(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,121,110,44,89 // vmovd (%r9,%rbx,2),%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 .byte 233,22,255,255,255 // jmpq 45ea <_sk_load_4444_dst_avx+0x26> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,100,89,12,6 // vpinsrw $0x6,0xc(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,10,5 // vpinsrw $0x5,0xa(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,89,196,100,89,8,4 // vpinsrw $0x4,0x8(%r9,%rbx,2),%xmm4,%xmm4 .byte 196,193,122,126,44,89 // vmovq (%r9,%rbx,2),%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 .byte 233,233,254,255,255 // jmpq 45ea <_sk_load_4444_dst_avx+0x26> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 236 // in (%dx),%al .byte 255 // (bad) .byte 255 // (bad) .byte 255,228 // jmpq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,208 // callq *%rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_gather_4444_avx .globl _sk_gather_4444_avx FUNCTION(_sk_gather_4444_avx) _sk_gather_4444_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,241,254,192 // vpaddd %xmm0,%xmm1,%xmm0 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,233,196,200,1 // vpinsrw $0x1,%eax,%xmm2,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,2 // vpinsrw $0x2,%eax,%xmm1,%xmm1 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,241,196,200,3 // vpinsrw $0x3,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,241,196,200,4 // vpinsrw $0x4,%eax,%xmm1,%xmm1 .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,183,4,81 // movzwl (%r9,%r10,2),%eax .byte 197,241,196,192,5 // vpinsrw $0x5,%eax,%xmm1,%xmm0 .byte 68,137,216 // mov %r11d,%eax .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 73,193,235,32 // shr $0x20,%r11 .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm3 .byte 196,226,125,24,5,54,105,0,0 // vbroadcastss 0x6936(%rip),%ymm0 # b128 <_sk_clut_4D_avx+0x2491> .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,226,125,24,13,41,105,0,0 // vbroadcastss 0x6929(%rip),%ymm1 # b12c <_sk_clut_4D_avx+0x2495> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 196,226,125,24,13,32,105,0,0 // vbroadcastss 0x6920(%rip),%ymm1 # b130 <_sk_clut_4D_avx+0x2499> .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,226,125,24,21,19,105,0,0 // vbroadcastss 0x6913(%rip),%ymm2 # b134 <_sk_clut_4D_avx+0x249d> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 .byte 196,226,125,24,21,10,105,0,0 // vbroadcastss 0x690a(%rip),%ymm2 # b138 <_sk_clut_4D_avx+0x24a1> .byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,98,125,24,5,253,104,0,0 // vbroadcastss 0x68fd(%rip),%ymm8 # b13c <_sk_clut_4D_avx+0x24a5> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,98,125,24,5,243,104,0,0 // vbroadcastss 0x68f3(%rip),%ymm8 # b140 <_sk_clut_4D_avx+0x24a9> .byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,98,125,24,5,229,104,0,0 // vbroadcastss 0x68e5(%rip),%ymm8 # b144 <_sk_clut_4D_avx+0x24ad> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_4444_avx .globl _sk_store_4444_avx FUNCTION(_sk_store_4444_avx) _sk_store_4444_avx: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,218 // movslq %edx,%rbx .byte 196,98,125,24,5,192,104,0,0 // vbroadcastss 0x68c0(%rip),%ymm8 # b148 <_sk_clut_4D_avx+0x24b1> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10 .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 .byte 196,193,49,114,241,12 // vpslld $0xc,%xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,4 // vpslld $0x4,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,4 // vpslld $0x4,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 4922 <_sk_store_4444_avx+0xba> .byte 196,65,122,127,4,89 // vmovdqu %xmm8,(%r9,%rbx,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,7 // and $0x7,%r10b .byte 65,254,202 // dec %r10b .byte 65,128,250,6 // cmp $0x6,%r10b .byte 119,235 // ja 491d <_sk_store_4444_avx+0xb5> .byte 69,15,182,210 // movzbl %r10b,%r10d .byte 76,141,29,67,0,0,0 // lea 0x43(%rip),%r11 # 4980 <_sk_store_4444_avx+0x118> .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,21,4,89,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,2) .byte 235,206 // jmp 491d <_sk_store_4444_avx+0xb5> .byte 196,67,121,21,68,89,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rbx,2) .byte 196,65,121,126,4,89 // vmovd %xmm8,(%r9,%rbx,2) .byte 235,190 // jmp 491d <_sk_store_4444_avx+0xb5> .byte 196,67,121,21,68,89,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rbx,2) .byte 196,67,121,21,68,89,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rbx,2) .byte 196,67,121,21,68,89,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rbx,2) .byte 196,65,121,214,4,89 // vmovq %xmm8,(%r9,%rbx,2) .byte 235,158 // jmp 491d <_sk_store_4444_avx+0xb5> .byte 144 // nop .byte 198 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255,207 // dec %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255,247 // push %rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 239 // out %eax,(%dx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_8888_avx .globl _sk_load_8888_avx FUNCTION(_sk_load_8888_avx) _sk_load_8888_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,136,0,0,0 // jne 4a4b <_sk_load_8888_avx+0xaf> .byte 197,252,16,24 // vmovups (%rax),%ymm3 .byte 197,124,40,21,17,107,0,0 // vmovaps 0x6b11(%rip),%ymm10 # b4e0 <_sk_clut_4D_avx+0x2849> .byte 196,193,100,84,194 // vandps %ymm10,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,5,107,103,0,0 // vbroadcastss 0x676b(%rip),%ymm8 # b14c <_sk_clut_4D_avx+0x24b5> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1 .byte 196,195,125,25,217,1 // vextractf128 $0x1,%ymm3,%xmm9 .byte 196,193,105,114,209,8 // vpsrld $0x8,%xmm9,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,193,116,84,202 // vandps %ymm10,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,161,114,211,16 // vpsrld $0x10,%xmm3,%xmm11 .byte 196,193,105,114,209,16 // vpsrld $0x10,%xmm9,%xmm2 .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2 .byte 196,193,108,84,210 // vandps %ymm10,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,169,114,211,24 // vpsrld $0x18,%xmm3,%xmm10 .byte 196,193,97,114,209,24 // vpsrld $0x18,%xmm9,%xmm3 .byte 196,227,45,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm10,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,194 // vmovq %r10,%xmm0 .byte 196,226,121,48,192 // vpmovzxbw %xmm0,%xmm0 .byte 196,226,121,0,13,109,105,0,0 // vpshufb 0x696d(%rip),%xmm0,%xmm1 # b3e0 <_sk_clut_4D_avx+0x2749> .byte 196,226,121,33,201 // vpmovsxbd %xmm1,%xmm1 .byte 196,226,121,0,5,111,105,0,0 // vpshufb 0x696f(%rip),%xmm0,%xmm0 # b3f0 <_sk_clut_4D_avx+0x2759> .byte 196,226,121,33,192 // vpmovsxbd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,226,125,44,24 // vmaskmovps (%rax),%ymm0,%ymm3 .byte 233,49,255,255,255 // jmpq 49c7 <_sk_load_8888_avx+0x2b> HIDDEN _sk_load_8888_dst_avx .globl _sk_load_8888_dst_avx FUNCTION(_sk_load_8888_dst_avx) _sk_load_8888_dst_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,136,0,0,0 // jne 4b45 <_sk_load_8888_dst_avx+0xaf> .byte 197,252,16,56 // vmovups (%rax),%ymm7 .byte 197,124,40,21,55,106,0,0 // vmovaps 0x6a37(%rip),%ymm10 # b500 <_sk_clut_4D_avx+0x2869> .byte 196,193,68,84,226 // vandps %ymm10,%ymm7,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,98,125,24,5,117,102,0,0 // vbroadcastss 0x6675(%rip),%ymm8 # b150 <_sk_clut_4D_avx+0x24b9> .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 197,209,114,215,8 // vpsrld $0x8,%xmm7,%xmm5 .byte 196,195,125,25,249,1 // vextractf128 $0x1,%ymm7,%xmm9 .byte 196,193,73,114,209,8 // vpsrld $0x8,%xmm9,%xmm6 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 .byte 196,193,84,84,234 // vandps %ymm10,%ymm5,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5 .byte 197,161,114,215,16 // vpsrld $0x10,%xmm7,%xmm11 .byte 196,193,73,114,209,16 // vpsrld $0x10,%xmm9,%xmm6 .byte 196,227,37,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm11,%ymm6 .byte 196,193,76,84,242 // vandps %ymm10,%ymm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 .byte 197,169,114,215,24 // vpsrld $0x18,%xmm7,%xmm10 .byte 196,193,65,114,209,24 // vpsrld $0x18,%xmm9,%xmm7 .byte 196,227,45,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm10,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,226 // vmovq %r10,%xmm4 .byte 196,226,121,48,228 // vpmovzxbw %xmm4,%xmm4 .byte 196,226,89,0,45,147,104,0,0 // vpshufb 0x6893(%rip),%xmm4,%xmm5 # b400 <_sk_clut_4D_avx+0x2769> .byte 196,226,121,33,237 // vpmovsxbd %xmm5,%xmm5 .byte 196,226,89,0,37,149,104,0,0 // vpshufb 0x6895(%rip),%xmm4,%xmm4 # b410 <_sk_clut_4D_avx+0x2779> .byte 196,226,121,33,228 // vpmovsxbd %xmm4,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 .byte 196,226,93,44,56 // vmaskmovps (%rax),%ymm4,%ymm7 .byte 233,49,255,255,255 // jmpq 4ac1 <_sk_load_8888_dst_avx+0x2b> HIDDEN _sk_gather_8888_avx .globl _sk_gather_8888_avx FUNCTION(_sk_gather_8888_avx) _sk_gather_8888_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,241,254,192 // vpaddd %xmm0,%xmm1,%xmm0 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,193,121,110,20,129 // vmovd (%r9,%rax,4),%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,34,12,145,1 // vpinsrd $0x1,(%r9,%r10,4),%xmm2,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 196,195,113,34,12,129,2 // vpinsrd $0x2,(%r9,%rax,4),%xmm1,%xmm1 .byte 196,225,249,126,192 // vmovq %xmm0,%rax .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,3,113,34,4,153,3 // vpinsrd $0x3,(%r9,%r11,4),%xmm1,%xmm8 .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,129,121,110,12,145 // vmovd (%r9,%r10,4),%xmm1 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 196,195,113,34,4,129,1 // vpinsrd $0x1,(%r9,%rax,4),%xmm1,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,34,4,129,2 // vpinsrd $0x2,(%r9,%rax,4),%xmm0,%xmm0 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,121,34,28,145,3 // vpinsrd $0x3,(%r9,%r10,4),%xmm0,%xmm3 .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0 .byte 197,124,40,21,229,104,0,0 // vmovaps 0x68e5(%rip),%ymm10 # b520 <_sk_clut_4D_avx+0x2889> .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,13,7,101,0,0 // vbroadcastss 0x6507(%rip),%ymm9 # b154 <_sk_clut_4D_avx+0x24bd> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1 .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,193,116,84,202 // vandps %ymm10,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 .byte 196,193,33,114,208,16 // vpsrld $0x10,%xmm8,%xmm11 .byte 197,233,114,211,16 // vpsrld $0x10,%xmm3,%xmm2 .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2 .byte 196,193,108,84,210 // vandps %ymm10,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8 .byte 197,225,114,211,24 // vpsrld $0x18,%xmm3,%xmm3 .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_8888_avx .globl _sk_store_8888_avx FUNCTION(_sk_store_8888_avx) _sk_store_8888_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 196,98,125,24,5,131,100,0,0 // vbroadcastss 0x6483(%rip),%ymm8 # b158 <_sk_clut_4D_avx+0x24c1> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11 .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8 .byte 196,67,37,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm11,%ymm8 .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 4d64 <_sk_store_8888_avx+0xb6> .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,65,249,110,202 // vmovq %r10,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,98,49,0,21,148,102,0,0 // vpshufb 0x6694(%rip),%xmm9,%xmm10 # b420 <_sk_clut_4D_avx+0x2789> .byte 196,66,121,33,210 // vpmovsxbd %xmm10,%xmm10 .byte 196,98,49,0,13,150,102,0,0 // vpshufb 0x6696(%rip),%xmm9,%xmm9 # b430 <_sk_clut_4D_avx+0x2799> .byte 196,66,121,33,201 // vpmovsxbd %xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,98,53,46,0 // vmaskmovps %ymm8,%ymm9,(%rax) .byte 235,177 // jmp 4d5d <_sk_store_8888_avx+0xaf> HIDDEN _sk_load_bgra_avx .globl _sk_load_bgra_avx FUNCTION(_sk_load_bgra_avx) _sk_load_bgra_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,136,0,0,0 // jne 4e5b <_sk_load_bgra_avx+0xaf> .byte 197,252,16,24 // vmovups (%rax),%ymm3 .byte 197,124,40,21,97,103,0,0 // vmovaps 0x6761(%rip),%ymm10 # b540 <_sk_clut_4D_avx+0x28a9> .byte 196,193,100,84,202 // vandps %ymm10,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,98,125,24,5,107,99,0,0 // vbroadcastss 0x636b(%rip),%ymm8 # b15c <_sk_clut_4D_avx+0x24c5> .byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2 .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1 .byte 196,195,125,25,217,1 // vextractf128 $0x1,%ymm3,%xmm9 .byte 196,193,121,114,209,8 // vpsrld $0x8,%xmm9,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1 .byte 197,161,114,211,16 // vpsrld $0x10,%xmm3,%xmm11 .byte 196,193,121,114,209,16 // vpsrld $0x10,%xmm9,%xmm0 .byte 196,227,37,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm11,%ymm0 .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,169,114,211,24 // vpsrld $0x18,%xmm3,%xmm10 .byte 196,193,97,114,209,24 // vpsrld $0x18,%xmm9,%xmm3 .byte 196,227,45,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm10,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,194 // vmovq %r10,%xmm0 .byte 196,226,121,48,192 // vpmovzxbw %xmm0,%xmm0 .byte 196,226,121,0,13,189,101,0,0 // vpshufb 0x65bd(%rip),%xmm0,%xmm1 # b440 <_sk_clut_4D_avx+0x27a9> .byte 196,226,121,33,201 // vpmovsxbd %xmm1,%xmm1 .byte 196,226,121,0,5,191,101,0,0 // vpshufb 0x65bf(%rip),%xmm0,%xmm0 # b450 <_sk_clut_4D_avx+0x27b9> .byte 196,226,121,33,192 // vpmovsxbd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,226,125,44,24 // vmaskmovps (%rax),%ymm0,%ymm3 .byte 233,49,255,255,255 // jmpq 4dd7 <_sk_load_bgra_avx+0x2b> HIDDEN _sk_load_bgra_dst_avx .globl _sk_load_bgra_dst_avx FUNCTION(_sk_load_bgra_dst_avx) _sk_load_bgra_dst_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,136,0,0,0 // jne 4f55 <_sk_load_bgra_dst_avx+0xaf> .byte 197,252,16,56 // vmovups (%rax),%ymm7 .byte 197,124,40,21,135,102,0,0 // vmovaps 0x6687(%rip),%ymm10 # b560 <_sk_clut_4D_avx+0x28c9> .byte 196,193,68,84,234 // vandps %ymm10,%ymm7,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,98,125,24,5,117,98,0,0 // vbroadcastss 0x6275(%rip),%ymm8 # b160 <_sk_clut_4D_avx+0x24c9> .byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6 .byte 197,209,114,215,8 // vpsrld $0x8,%xmm7,%xmm5 .byte 196,195,125,25,249,1 // vextractf128 $0x1,%ymm7,%xmm9 .byte 196,193,89,114,209,8 // vpsrld $0x8,%xmm9,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 .byte 196,193,92,84,226 // vandps %ymm10,%ymm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5 .byte 197,161,114,215,16 // vpsrld $0x10,%xmm7,%xmm11 .byte 196,193,89,114,209,16 // vpsrld $0x10,%xmm9,%xmm4 .byte 196,227,37,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm11,%ymm4 .byte 196,193,92,84,226 // vandps %ymm10,%ymm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 197,169,114,215,24 // vpsrld $0x18,%xmm7,%xmm10 .byte 196,193,65,114,209,24 // vpsrld $0x18,%xmm9,%xmm7 .byte 196,227,45,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm10,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,193,249,110,226 // vmovq %r10,%xmm4 .byte 196,226,121,48,228 // vpmovzxbw %xmm4,%xmm4 .byte 196,226,89,0,45,227,100,0,0 // vpshufb 0x64e3(%rip),%xmm4,%xmm5 # b460 <_sk_clut_4D_avx+0x27c9> .byte 196,226,121,33,237 // vpmovsxbd %xmm5,%xmm5 .byte 196,226,89,0,37,229,100,0,0 // vpshufb 0x64e5(%rip),%xmm4,%xmm4 # b470 <_sk_clut_4D_avx+0x27d9> .byte 196,226,121,33,228 // vpmovsxbd %xmm4,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 .byte 196,226,93,44,56 // vmaskmovps (%rax),%ymm4,%ymm7 .byte 233,49,255,255,255 // jmpq 4ed1 <_sk_load_bgra_dst_avx+0x2b> HIDDEN _sk_gather_bgra_avx .globl _sk_gather_bgra_avx FUNCTION(_sk_gather_bgra_avx) _sk_gather_bgra_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,241,254,192 // vpaddd %xmm0,%xmm1,%xmm0 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 68,137,208 // mov %r10d,%eax .byte 196,193,121,110,20,129 // vmovd (%r9,%rax,4),%xmm2 .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,105,34,12,145,1 // vpinsrd $0x1,(%r9,%r10,4),%xmm2,%xmm1 .byte 68,137,216 // mov %r11d,%eax .byte 196,195,113,34,12,129,2 // vpinsrd $0x2,(%r9,%rax,4),%xmm1,%xmm1 .byte 196,225,249,126,192 // vmovq %xmm0,%rax .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,3,113,34,4,153,3 // vpinsrd $0x3,(%r9,%r11,4),%xmm1,%xmm8 .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,129,121,110,12,145 // vmovd (%r9,%r10,4),%xmm1 .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 196,195,113,34,4,129,1 // vpinsrd $0x1,(%r9,%rax,4),%xmm1,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 196,195,121,34,4,129,2 // vpinsrd $0x2,(%r9,%rax,4),%xmm0,%xmm0 .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,131,121,34,28,145,3 // vpinsrd $0x3,(%r9,%r10,4),%xmm0,%xmm3 .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0 .byte 197,124,40,13,53,101,0,0 // vmovaps 0x6535(%rip),%ymm9 # b580 <_sk_clut_4D_avx+0x28e9> .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,21,7,97,0,0 // vbroadcastss 0x6107(%rip),%ymm10 # b164 <_sk_clut_4D_avx+0x24cd> .byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2 .byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0 .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,202 // vmulps %ymm10,%ymm0,%ymm1 .byte 196,193,33,114,208,16 // vpsrld $0x10,%xmm8,%xmm11 .byte 197,249,114,211,16 // vpsrld $0x10,%xmm3,%xmm0 .byte 196,227,37,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm11,%ymm0 .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8 .byte 197,225,114,211,24 // vpsrld $0x18,%xmm3,%xmm3 .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_bgra_avx .globl _sk_store_bgra_avx FUNCTION(_sk_store_bgra_avx) _sk_store_bgra_avx: .byte 73,137,201 // mov %rcx,%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 73,99,201 // movslq %r9d,%rcx .byte 73,15,175,202 // imul %r10,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 72,99,194 // movslq %edx,%rax .byte 72,141,4,129 // lea (%rcx,%rax,4),%rax .byte 196,98,125,24,5,131,96,0,0 // vbroadcastss 0x6083(%rip),%ymm8 # b168 <_sk_clut_4D_avx+0x24d1> .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10 .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11 .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8 .byte 196,67,37,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm11,%ymm8 .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 77,133,192 // test %r8,%r8 .byte 117,11 // jne 5174 <_sk_store_bgra_avx+0xb6> .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,201 // mov %r9,%rcx .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 73,199,194,255,255,255,255 // mov $0xffffffffffffffff,%r10 .byte 73,211,234 // shr %cl,%r10 .byte 196,65,249,110,202 // vmovq %r10,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,98,49,0,21,228,98,0,0 // vpshufb 0x62e4(%rip),%xmm9,%xmm10 # b480 <_sk_clut_4D_avx+0x27e9> .byte 196,66,121,33,210 // vpmovsxbd %xmm10,%xmm10 .byte 196,98,49,0,13,230,98,0,0 // vpshufb 0x62e6(%rip),%xmm9,%xmm9 # b490 <_sk_clut_4D_avx+0x27f9> .byte 196,66,121,33,201 // vpmovsxbd %xmm9,%xmm9 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,98,53,46,0 // vmaskmovps %ymm8,%ymm9,(%rax) .byte 235,177 // jmp 516d <_sk_store_bgra_avx+0xaf> HIDDEN _sk_load_f16_avx .globl _sk_load_f16_avx FUNCTION(_sk_load_f16_avx) _sk_load_f16_avx: .byte 72,131,236,24 // sub $0x18,%rsp .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 197,252,17,124,36,224 // vmovups %ymm7,-0x20(%rsp) .byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp) .byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp) .byte 197,254,127,100,36,128 // vmovdqu %ymm4,-0x80(%rsp) .byte 15,133,145,2,0,0 // jne 5489 <_sk_load_f16_avx+0x2cd> .byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8 .byte 196,193,121,16,84,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm2 .byte 196,193,121,16,76,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm1 .byte 196,65,122,111,76,193,48 // vmovdqu 0x30(%r9,%rax,8),%xmm9 .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0 .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2 .byte 196,193,113,97,217 // vpunpcklwd %xmm9,%xmm1,%xmm3 .byte 196,193,113,105,201 // vpunpckhwd %xmm9,%xmm1,%xmm1 .byte 197,121,97,250 // vpunpcklwd %xmm2,%xmm0,%xmm15 .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8 .byte 197,225,97,209 // vpunpcklwd %xmm1,%xmm3,%xmm2 .byte 197,97,105,201 // vpunpckhwd %xmm1,%xmm3,%xmm9 .byte 197,129,108,194 // vpunpcklqdq %xmm2,%xmm15,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,98,125,24,37,23,95,0,0 // vbroadcastss 0x5f17(%rip),%ymm12 # b16c <_sk_clut_4D_avx+0x24d5> .byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1 .byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0 .byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14 .byte 196,98,121,24,29,3,95,0,0 // vbroadcastss 0x5f03(%rip),%xmm11 # b170 <_sk_clut_4D_avx+0x24d9> .byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3 .byte 196,98,121,24,45,249,94,0,0 // vbroadcastss 0x5ef9(%rip),%xmm13 # b174 <_sk_clut_4D_avx+0x24dd> .byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3 .byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10 .byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10 .byte 196,99,45,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm10,%ymm10 .byte 197,225,114,241,16 // vpslld $0x10,%xmm1,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1 .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1 .byte 197,249,114,240,13 // vpslld $0xd,%xmm0,%xmm0 .byte 196,193,97,114,246,13 // vpslld $0xd,%xmm14,%xmm3 .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0 .byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0 .byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1 .byte 196,226,121,24,29,175,94,0,0 // vbroadcastss 0x5eaf(%rip),%xmm3 # b178 <_sk_clut_4D_avx+0x24e1> .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1 .byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,195,125,74,198,160 // vblendvps %ymm10,%ymm14,%ymm0,%ymm0 .byte 197,129,109,202 // vpunpckhqdq %xmm2,%xmm15,%xmm1 .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,241,105,212 // vpunpckhwd %xmm4,%xmm1,%xmm2 .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,193,116,84,212 // vandps %ymm12,%ymm1,%ymm2 .byte 197,244,87,202 // vxorps %ymm2,%ymm1,%ymm1 .byte 196,195,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm10 .byte 196,193,40,87,251 // vxorps %xmm11,%xmm10,%xmm7 .byte 197,145,102,255 // vpcmpgtd %xmm7,%xmm13,%xmm7 .byte 196,193,112,87,243 // vxorps %xmm11,%xmm1,%xmm6 .byte 197,145,102,246 // vpcmpgtd %xmm6,%xmm13,%xmm6 .byte 196,227,77,24,247,1 // vinsertf128 $0x1,%xmm7,%ymm6,%ymm6 .byte 197,193,114,242,16 // vpslld $0x10,%xmm2,%xmm7 .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2 .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2 .byte 196,227,69,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm7,%ymm2 .byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1 .byte 196,193,65,114,242,13 // vpslld $0xd,%xmm10,%xmm7 .byte 196,227,117,24,207,1 // vinsertf128 $0x1,%xmm7,%ymm1,%ymm1 .byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1 .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2 .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2 .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,195,117,74,206,96 // vblendvps %ymm6,%ymm14,%ymm1,%ymm1 .byte 196,193,57,108,209 // vpunpcklqdq %xmm9,%xmm8,%xmm2 .byte 197,233,105,244 // vpunpckhwd %xmm4,%xmm2,%xmm6 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2 .byte 196,227,109,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm2,%ymm2 .byte 196,193,108,84,244 // vandps %ymm12,%ymm2,%ymm6 .byte 197,236,87,214 // vxorps %ymm6,%ymm2,%ymm2 .byte 196,227,125,25,215,1 // vextractf128 $0x1,%ymm2,%xmm7 .byte 196,193,64,87,235 // vxorps %xmm11,%xmm7,%xmm5 .byte 197,145,102,237 // vpcmpgtd %xmm5,%xmm13,%xmm5 .byte 196,193,104,87,227 // vxorps %xmm11,%xmm2,%xmm4 .byte 197,145,102,228 // vpcmpgtd %xmm4,%xmm13,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 197,209,114,246,16 // vpslld $0x10,%xmm6,%xmm5 .byte 196,227,125,25,246,1 // vextractf128 $0x1,%ymm6,%xmm6 .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2 .byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6 .byte 196,227,109,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm2,%ymm2 .byte 197,236,86,213 // vorps %ymm5,%ymm2,%ymm2 .byte 196,227,125,25,213,1 // vextractf128 $0x1,%ymm2,%xmm5 .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5 .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2 .byte 196,227,109,24,213,1 // vinsertf128 $0x1,%xmm5,%ymm2,%ymm2 .byte 196,195,109,74,214,64 // vblendvps %ymm4,%ymm14,%ymm2,%ymm2 .byte 196,193,57,109,225 // vpunpckhqdq %xmm9,%xmm8,%xmm4 .byte 196,193,89,105,234 // vpunpckhwd %xmm10,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,193,92,84,236 // vandps %ymm12,%ymm4,%ymm5 .byte 197,220,87,229 // vxorps %ymm5,%ymm4,%ymm4 .byte 196,227,125,25,230,1 // vextractf128 $0x1,%ymm4,%xmm6 .byte 196,193,72,87,251 // vxorps %xmm11,%xmm6,%xmm7 .byte 197,17,102,199 // vpcmpgtd %xmm7,%xmm13,%xmm8 .byte 196,193,88,87,251 // vxorps %xmm11,%xmm4,%xmm7 .byte 197,145,102,255 // vpcmpgtd %xmm7,%xmm13,%xmm7 .byte 196,195,69,24,248,1 // vinsertf128 $0x1,%xmm8,%ymm7,%ymm7 .byte 197,185,114,245,16 // vpslld $0x10,%xmm5,%xmm8 .byte 196,227,125,25,237,1 // vextractf128 $0x1,%ymm5,%xmm5 .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5 .byte 196,227,61,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm8,%ymm5 .byte 197,217,114,244,13 // vpslld $0xd,%xmm4,%xmm4 .byte 197,201,114,246,13 // vpslld $0xd,%xmm6,%xmm6 .byte 196,227,93,24,230,1 // vinsertf128 $0x1,%xmm6,%ymm4,%ymm4 .byte 197,220,86,229 // vorps %ymm5,%ymm4,%ymm4 .byte 196,227,125,25,229,1 // vextractf128 $0x1,%ymm4,%xmm5 .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5 .byte 197,217,254,219 // vpaddd %xmm3,%xmm4,%xmm3 .byte 196,227,101,24,221,1 // vinsertf128 $0x1,%xmm5,%ymm3,%ymm3 .byte 196,195,101,74,222,112 // vblendvps %ymm7,%ymm14,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4 .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5 .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6 .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7 .byte 72,131,196,24 // add $0x18,%rsp .byte 255,224 // jmpq *%rax .byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 54ef <_sk_load_f16_avx+0x333> .byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 54ef <_sk_load_f16_avx+0x333> .byte 196,193,123,16,84,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 54fc <_sk_load_f16_avx+0x340> .byte 196,193,105,22,84,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm2,%xmm2 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 54fc <_sk_load_f16_avx+0x340> .byte 196,193,123,16,76,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm1 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,65,253,255,255 // je 5213 <_sk_load_f16_avx+0x57> .byte 196,193,113,22,76,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm1,%xmm1 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,48,253,255,255 // jb 5213 <_sk_load_f16_avx+0x57> .byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9 .byte 233,36,253,255,255 // jmpq 5213 <_sk_load_f16_avx+0x57> .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 .byte 233,23,253,255,255 // jmpq 5213 <_sk_load_f16_avx+0x57> .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1 .byte 233,14,253,255,255 // jmpq 5213 <_sk_load_f16_avx+0x57> HIDDEN _sk_load_f16_dst_avx .globl _sk_load_f16_dst_avx FUNCTION(_sk_load_f16_dst_avx) _sk_load_f16_dst_avx: .byte 72,131,236,24 // sub $0x18,%rsp .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 197,252,17,92,36,224 // vmovups %ymm3,-0x20(%rsp) .byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp) .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp) .byte 197,254,127,68,36,128 // vmovdqu %ymm0,-0x80(%rsp) .byte 15,133,145,2,0,0 // jne 57d2 <_sk_load_f16_dst_avx+0x2cd> .byte 196,65,121,16,4,193 // vmovupd (%r9,%rax,8),%xmm8 .byte 196,193,121,16,116,193,16 // vmovupd 0x10(%r9,%rax,8),%xmm6 .byte 196,193,121,16,108,193,32 // vmovupd 0x20(%r9,%rax,8),%xmm5 .byte 196,65,122,111,76,193,48 // vmovdqu 0x30(%r9,%rax,8),%xmm9 .byte 197,185,97,230 // vpunpcklwd %xmm6,%xmm8,%xmm4 .byte 197,185,105,246 // vpunpckhwd %xmm6,%xmm8,%xmm6 .byte 196,193,81,97,249 // vpunpcklwd %xmm9,%xmm5,%xmm7 .byte 196,193,81,105,233 // vpunpckhwd %xmm9,%xmm5,%xmm5 .byte 197,89,97,254 // vpunpcklwd %xmm6,%xmm4,%xmm15 .byte 197,89,105,198 // vpunpckhwd %xmm6,%xmm4,%xmm8 .byte 197,193,97,245 // vpunpcklwd %xmm5,%xmm7,%xmm6 .byte 197,65,105,205 // vpunpckhwd %xmm5,%xmm7,%xmm9 .byte 197,129,108,230 // vpunpcklqdq %xmm6,%xmm15,%xmm4 .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,217,105,232 // vpunpckhwd %xmm0,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,98,125,24,37,222,91,0,0 // vbroadcastss 0x5bde(%rip),%ymm12 # b17c <_sk_clut_4D_avx+0x24e5> .byte 196,193,92,84,236 // vandps %ymm12,%ymm4,%ymm5 .byte 197,220,87,229 // vxorps %ymm5,%ymm4,%ymm4 .byte 196,195,125,25,230,1 // vextractf128 $0x1,%ymm4,%xmm14 .byte 196,98,121,24,29,202,91,0,0 // vbroadcastss 0x5bca(%rip),%xmm11 # b180 <_sk_clut_4D_avx+0x24e9> .byte 196,193,8,87,251 // vxorps %xmm11,%xmm14,%xmm7 .byte 196,98,121,24,45,192,91,0,0 // vbroadcastss 0x5bc0(%rip),%xmm13 # b184 <_sk_clut_4D_avx+0x24ed> .byte 197,145,102,255 // vpcmpgtd %xmm7,%xmm13,%xmm7 .byte 196,65,88,87,211 // vxorps %xmm11,%xmm4,%xmm10 .byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10 .byte 196,99,45,24,215,1 // vinsertf128 $0x1,%xmm7,%ymm10,%ymm10 .byte 197,193,114,245,16 // vpslld $0x10,%xmm5,%xmm7 .byte 196,227,125,25,237,1 // vextractf128 $0x1,%ymm5,%xmm5 .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5 .byte 196,227,69,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm7,%ymm5 .byte 197,217,114,244,13 // vpslld $0xd,%xmm4,%xmm4 .byte 196,193,65,114,246,13 // vpslld $0xd,%xmm14,%xmm7 .byte 196,227,93,24,231,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm4 .byte 197,220,86,229 // vorps %ymm5,%ymm4,%ymm4 .byte 196,227,125,25,229,1 // vextractf128 $0x1,%ymm4,%xmm5 .byte 196,226,121,24,61,118,91,0,0 // vbroadcastss 0x5b76(%rip),%xmm7 # b188 <_sk_clut_4D_avx+0x24f1> .byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5 .byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,195,93,74,230,160 // vblendvps %ymm10,%ymm14,%ymm4,%ymm4 .byte 197,129,109,238 // vpunpckhqdq %xmm6,%xmm15,%xmm5 .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,209,105,240 // vpunpckhwd %xmm0,%xmm5,%xmm6 .byte 196,226,121,51,237 // vpmovzxwd %xmm5,%xmm5 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 .byte 196,193,84,84,244 // vandps %ymm12,%ymm5,%ymm6 .byte 197,212,87,238 // vxorps %ymm6,%ymm5,%ymm5 .byte 196,195,125,25,234,1 // vextractf128 $0x1,%ymm5,%xmm10 .byte 196,193,40,87,219 // vxorps %xmm11,%xmm10,%xmm3 .byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3 .byte 196,193,80,87,211 // vxorps %xmm11,%xmm5,%xmm2 .byte 197,145,102,210 // vpcmpgtd %xmm2,%xmm13,%xmm2 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 197,225,114,246,16 // vpslld $0x10,%xmm6,%xmm3 .byte 196,227,125,25,246,1 // vextractf128 $0x1,%ymm6,%xmm6 .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6 .byte 196,227,101,24,222,1 // vinsertf128 $0x1,%xmm6,%ymm3,%ymm3 .byte 197,209,114,245,13 // vpslld $0xd,%xmm5,%xmm5 .byte 196,193,73,114,242,13 // vpslld $0xd,%xmm10,%xmm6 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 .byte 197,212,86,219 // vorps %ymm3,%ymm5,%ymm3 .byte 196,227,125,25,221,1 // vextractf128 $0x1,%ymm3,%xmm5 .byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5 .byte 197,225,254,223 // vpaddd %xmm7,%xmm3,%xmm3 .byte 196,227,101,24,221,1 // vinsertf128 $0x1,%xmm5,%ymm3,%ymm3 .byte 196,195,101,74,238,32 // vblendvps %ymm2,%ymm14,%ymm3,%ymm5 .byte 196,193,57,108,209 // vpunpcklqdq %xmm9,%xmm8,%xmm2 .byte 197,233,105,216 // vpunpckhwd %xmm0,%xmm2,%xmm3 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 196,193,108,84,220 // vandps %ymm12,%ymm2,%ymm3 .byte 197,236,87,211 // vxorps %ymm3,%ymm2,%ymm2 .byte 196,227,125,25,214,1 // vextractf128 $0x1,%ymm2,%xmm6 .byte 196,193,72,87,203 // vxorps %xmm11,%xmm6,%xmm1 .byte 197,145,102,201 // vpcmpgtd %xmm1,%xmm13,%xmm1 .byte 196,193,104,87,195 // vxorps %xmm11,%xmm2,%xmm0 .byte 197,145,102,192 // vpcmpgtd %xmm0,%xmm13,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,241,114,243,16 // vpslld $0x10,%xmm3,%xmm1 .byte 196,227,125,25,219,1 // vextractf128 $0x1,%ymm3,%xmm3 .byte 197,225,114,243,16 // vpslld $0x10,%xmm3,%xmm3 .byte 196,227,117,24,203,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm1 .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2 .byte 197,225,114,246,13 // vpslld $0xd,%xmm6,%xmm3 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 197,236,86,201 // vorps %ymm1,%ymm2,%ymm1 .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2 .byte 197,233,254,215 // vpaddd %xmm7,%xmm2,%xmm2 .byte 197,241,254,207 // vpaddd %xmm7,%xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,195,117,74,246,0 // vblendvps %ymm0,%ymm14,%ymm1,%ymm6 .byte 196,193,57,109,193 // vpunpckhqdq %xmm9,%xmm8,%xmm0 .byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1 .byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0 .byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2 .byte 196,193,104,87,219 // vxorps %xmm11,%xmm2,%xmm3 .byte 197,17,102,195 // vpcmpgtd %xmm3,%xmm13,%xmm8 .byte 196,193,120,87,219 // vxorps %xmm11,%xmm0,%xmm3 .byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3 .byte 196,195,101,24,216,1 // vinsertf128 $0x1,%xmm8,%ymm3,%ymm3 .byte 197,185,114,241,16 // vpslld $0x10,%xmm1,%xmm8 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1 .byte 196,227,61,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm8,%ymm1 .byte 197,249,114,240,13 // vpslld $0xd,%xmm0,%xmm0 .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2 .byte 196,227,125,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm0,%ymm0 .byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0 .byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1 .byte 197,241,254,207 // vpaddd %xmm7,%xmm1,%xmm1 .byte 197,249,254,199 // vpaddd %xmm7,%xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,195,125,74,254,48 // vblendvps %ymm3,%ymm14,%ymm0,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0 .byte 197,252,16,76,36,160 // vmovups -0x60(%rsp),%ymm1 .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2 .byte 197,252,16,92,36,224 // vmovups -0x20(%rsp),%ymm3 .byte 72,131,196,24 // add $0x18,%rsp .byte 255,224 // jmpq *%rax .byte 196,65,123,16,4,193 // vmovsd (%r9,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 5838 <_sk_load_f16_dst_avx+0x333> .byte 196,65,57,22,68,193,8 // vmovhpd 0x8(%r9,%rax,8),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 5838 <_sk_load_f16_dst_avx+0x333> .byte 196,193,123,16,116,193,16 // vmovsd 0x10(%r9,%rax,8),%xmm6 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 5845 <_sk_load_f16_dst_avx+0x340> .byte 196,193,73,22,116,193,24 // vmovhpd 0x18(%r9,%rax,8),%xmm6,%xmm6 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 5845 <_sk_load_f16_dst_avx+0x340> .byte 196,193,123,16,108,193,32 // vmovsd 0x20(%r9,%rax,8),%xmm5 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,65,253,255,255 // je 555c <_sk_load_f16_dst_avx+0x57> .byte 196,193,81,22,108,193,40 // vmovhpd 0x28(%r9,%rax,8),%xmm5,%xmm5 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,48,253,255,255 // jb 555c <_sk_load_f16_dst_avx+0x57> .byte 196,65,122,126,76,193,48 // vmovq 0x30(%r9,%rax,8),%xmm9 .byte 233,36,253,255,255 // jmpq 555c <_sk_load_f16_dst_avx+0x57> .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5 .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6 .byte 233,23,253,255,255 // jmpq 555c <_sk_load_f16_dst_avx+0x57> .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5 .byte 233,14,253,255,255 // jmpq 555c <_sk_load_f16_dst_avx+0x57> HIDDEN _sk_gather_f16_avx .globl _sk_gather_f16_avx FUNCTION(_sk_gather_f16_avx) _sk_gather_f16_avx: .byte 72,131,236,24 // sub $0x18,%rsp .byte 197,252,17,124,36,224 // vmovups %ymm7,-0x20(%rsp) .byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp) .byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp) .byte 197,254,127,100,36,128 // vmovdqu %ymm4,-0x80(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2 .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0 .byte 197,113,254,192 // vpaddd %xmm0,%xmm1,%xmm8 .byte 197,225,254,202 // vpaddd %xmm2,%xmm3,%xmm1 .byte 196,225,249,126,200 // vmovq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,65,122,126,12,193 // vmovq (%r9,%rax,8),%xmm9 .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax .byte 196,1,122,126,20,209 // vmovq (%r9,%r10,8),%xmm10 .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,65,122,126,28,193 // vmovq (%r9,%rax,8),%xmm11 .byte 196,97,249,126,192 // vmovq %xmm8,%rax .byte 196,1,122,126,36,209 // vmovq (%r9,%r10,8),%xmm12 .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 196,65,122,126,44,193 // vmovq (%r9,%rax,8),%xmm13 .byte 196,67,249,22,195,1 // vpextrq $0x1,%xmm8,%r11 .byte 196,1,122,126,4,209 // vmovq (%r9,%r10,8),%xmm8 .byte 76,137,216 // mov %r11,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 196,65,122,126,52,193 // vmovq (%r9,%rax,8),%xmm14 .byte 68,137,216 // mov %r11d,%eax .byte 196,193,122,126,4,193 // vmovq (%r9,%rax,8),%xmm0 .byte 196,193,41,108,209 // vpunpcklqdq %xmm9,%xmm10,%xmm2 .byte 196,193,25,108,203 // vpunpcklqdq %xmm11,%xmm12,%xmm1 .byte 196,193,57,108,221 // vpunpcklqdq %xmm13,%xmm8,%xmm3 .byte 196,193,121,108,198 // vpunpcklqdq %xmm14,%xmm0,%xmm0 .byte 197,105,97,193 // vpunpcklwd %xmm1,%xmm2,%xmm8 .byte 197,233,105,209 // vpunpckhwd %xmm1,%xmm2,%xmm2 .byte 197,225,97,200 // vpunpcklwd %xmm0,%xmm3,%xmm1 .byte 197,225,105,192 // vpunpckhwd %xmm0,%xmm3,%xmm0 .byte 197,57,97,250 // vpunpcklwd %xmm2,%xmm8,%xmm15 .byte 197,57,105,194 // vpunpckhwd %xmm2,%xmm8,%xmm8 .byte 197,241,97,208 // vpunpcklwd %xmm0,%xmm1,%xmm2 .byte 197,113,105,200 // vpunpckhwd %xmm0,%xmm1,%xmm9 .byte 197,129,108,194 // vpunpcklqdq %xmm2,%xmm15,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,98,125,24,37,52,88,0,0 // vbroadcastss 0x5834(%rip),%ymm12 # b18c <_sk_clut_4D_avx+0x24f5> .byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1 .byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0 .byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14 .byte 196,98,121,24,29,32,88,0,0 // vbroadcastss 0x5820(%rip),%xmm11 # b190 <_sk_clut_4D_avx+0x24f9> .byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3 .byte 196,98,121,24,45,22,88,0,0 // vbroadcastss 0x5816(%rip),%xmm13 # b194 <_sk_clut_4D_avx+0x24fd> .byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3 .byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10 .byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10 .byte 196,99,45,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm10,%ymm10 .byte 197,225,114,241,16 // vpslld $0x10,%xmm1,%xmm3 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1 .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1 .byte 197,249,114,240,13 // vpslld $0xd,%xmm0,%xmm0 .byte 196,193,97,114,246,13 // vpslld $0xd,%xmm14,%xmm3 .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0 .byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0 .byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1 .byte 196,226,121,24,29,204,87,0,0 // vbroadcastss 0x57cc(%rip),%xmm3 # b198 <_sk_clut_4D_avx+0x2501> .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1 .byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,195,125,74,198,160 // vblendvps %ymm10,%ymm14,%ymm0,%ymm0 .byte 197,129,109,202 // vpunpckhqdq %xmm2,%xmm15,%xmm1 .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,241,105,212 // vpunpckhwd %xmm4,%xmm1,%xmm2 .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,193,116,84,212 // vandps %ymm12,%ymm1,%ymm2 .byte 197,244,87,202 // vxorps %ymm2,%ymm1,%ymm1 .byte 196,195,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm10 .byte 196,193,40,87,251 // vxorps %xmm11,%xmm10,%xmm7 .byte 197,145,102,255 // vpcmpgtd %xmm7,%xmm13,%xmm7 .byte 196,193,112,87,243 // vxorps %xmm11,%xmm1,%xmm6 .byte 197,145,102,246 // vpcmpgtd %xmm6,%xmm13,%xmm6 .byte 196,227,77,24,247,1 // vinsertf128 $0x1,%xmm7,%ymm6,%ymm6 .byte 197,193,114,242,16 // vpslld $0x10,%xmm2,%xmm7 .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2 .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2 .byte 196,227,69,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm7,%ymm2 .byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1 .byte 196,193,65,114,242,13 // vpslld $0xd,%xmm10,%xmm7 .byte 196,227,117,24,207,1 // vinsertf128 $0x1,%xmm7,%ymm1,%ymm1 .byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1 .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2 .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2 .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 196,195,117,74,206,96 // vblendvps %ymm6,%ymm14,%ymm1,%ymm1 .byte 196,193,57,108,209 // vpunpcklqdq %xmm9,%xmm8,%xmm2 .byte 197,233,105,244 // vpunpckhwd %xmm4,%xmm2,%xmm6 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2 .byte 196,227,109,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm2,%ymm2 .byte 196,193,108,84,244 // vandps %ymm12,%ymm2,%ymm6 .byte 197,236,87,214 // vxorps %ymm6,%ymm2,%ymm2 .byte 196,227,125,25,215,1 // vextractf128 $0x1,%ymm2,%xmm7 .byte 196,193,64,87,235 // vxorps %xmm11,%xmm7,%xmm5 .byte 197,145,102,237 // vpcmpgtd %xmm5,%xmm13,%xmm5 .byte 196,193,104,87,227 // vxorps %xmm11,%xmm2,%xmm4 .byte 197,145,102,228 // vpcmpgtd %xmm4,%xmm13,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 197,209,114,246,16 // vpslld $0x10,%xmm6,%xmm5 .byte 196,227,125,25,246,1 // vextractf128 $0x1,%ymm6,%xmm6 .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2 .byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6 .byte 196,227,109,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm2,%ymm2 .byte 197,236,86,213 // vorps %ymm5,%ymm2,%ymm2 .byte 196,227,125,25,213,1 // vextractf128 $0x1,%ymm2,%xmm5 .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5 .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2 .byte 196,227,109,24,213,1 // vinsertf128 $0x1,%xmm5,%ymm2,%ymm2 .byte 196,195,109,74,214,64 // vblendvps %ymm4,%ymm14,%ymm2,%ymm2 .byte 196,193,57,109,225 // vpunpckhqdq %xmm9,%xmm8,%xmm4 .byte 196,193,89,105,234 // vpunpckhwd %xmm10,%xmm4,%xmm5 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,193,92,84,236 // vandps %ymm12,%ymm4,%ymm5 .byte 197,220,87,229 // vxorps %ymm5,%ymm4,%ymm4 .byte 196,227,125,25,230,1 // vextractf128 $0x1,%ymm4,%xmm6 .byte 196,193,72,87,251 // vxorps %xmm11,%xmm6,%xmm7 .byte 197,17,102,199 // vpcmpgtd %xmm7,%xmm13,%xmm8 .byte 196,193,88,87,251 // vxorps %xmm11,%xmm4,%xmm7 .byte 197,145,102,255 // vpcmpgtd %xmm7,%xmm13,%xmm7 .byte 196,195,69,24,248,1 // vinsertf128 $0x1,%xmm8,%ymm7,%ymm7 .byte 197,185,114,245,16 // vpslld $0x10,%xmm5,%xmm8 .byte 196,227,125,25,237,1 // vextractf128 $0x1,%ymm5,%xmm5 .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5 .byte 196,227,61,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm8,%ymm5 .byte 197,217,114,244,13 // vpslld $0xd,%xmm4,%xmm4 .byte 197,201,114,246,13 // vpslld $0xd,%xmm6,%xmm6 .byte 196,227,93,24,230,1 // vinsertf128 $0x1,%xmm6,%ymm4,%ymm4 .byte 197,220,86,229 // vorps %ymm5,%ymm4,%ymm4 .byte 196,227,125,25,229,1 // vextractf128 $0x1,%ymm4,%xmm5 .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5 .byte 197,217,254,219 // vpaddd %xmm3,%xmm4,%xmm3 .byte 196,227,101,24,221,1 // vinsertf128 $0x1,%xmm5,%ymm3,%ymm3 .byte 196,195,101,74,222,112 // vblendvps %ymm7,%ymm14,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4 .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5 .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6 .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7 .byte 72,131,196,24 // add $0x18,%rsp .byte 255,224 // jmpq *%rax HIDDEN _sk_store_f16_avx .globl _sk_store_f16_avx FUNCTION(_sk_store_f16_avx) _sk_store_f16_avx: .byte 72,131,236,88 // sub $0x58,%rsp .byte 197,252,17,124,36,32 // vmovups %ymm7,0x20(%rsp) .byte 197,252,17,52,36 // vmovups %ymm6,(%rsp) .byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp) .byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp) .byte 196,98,125,24,13,236,85,0,0 // vbroadcastss 0x55ec(%rip),%ymm9 # b19c <_sk_clut_4D_avx+0x2505> .byte 196,65,124,84,209 // vandps %ymm9,%ymm0,%ymm10 .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp) .byte 196,65,124,87,218 // vxorps %ymm10,%ymm0,%ymm11 .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12 .byte 196,98,121,24,5,209,85,0,0 // vbroadcastss 0x55d1(%rip),%xmm8 # b1a0 <_sk_clut_4D_avx+0x2509> .byte 196,65,57,102,236 // vpcmpgtd %xmm12,%xmm8,%xmm13 .byte 196,65,57,102,243 // vpcmpgtd %xmm11,%xmm8,%xmm14 .byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13 .byte 196,193,9,114,210,16 // vpsrld $0x10,%xmm10,%xmm14 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,210,16 // vpsrld $0x10,%xmm10,%xmm10 .byte 196,67,13,24,242,1 // vinsertf128 $0x1,%xmm10,%ymm14,%ymm14 .byte 196,193,33,114,211,13 // vpsrld $0xd,%xmm11,%xmm11 .byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12 .byte 196,98,125,24,21,152,85,0,0 // vbroadcastss 0x5598(%rip),%ymm10 # b1a4 <_sk_clut_4D_avx+0x250d> .byte 196,65,12,86,242 // vorps %ymm10,%ymm14,%ymm14 .byte 196,67,125,25,247,1 // vextractf128 $0x1,%ymm14,%xmm15 .byte 196,65,1,254,228 // vpaddd %xmm12,%xmm15,%xmm12 .byte 196,65,9,254,219 // vpaddd %xmm11,%xmm14,%xmm11 .byte 196,67,37,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm11,%ymm12 .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 196,99,29,74,224,208 // vblendvps %ymm13,%ymm0,%ymm12,%ymm12 .byte 196,65,116,84,233 // vandps %ymm9,%ymm1,%ymm13 .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp) .byte 196,65,116,87,245 // vxorps %ymm13,%ymm1,%ymm14 .byte 196,67,125,25,247,1 // vextractf128 $0x1,%ymm14,%xmm15 .byte 196,193,57,102,255 // vpcmpgtd %xmm15,%xmm8,%xmm7 .byte 196,65,57,102,222 // vpcmpgtd %xmm14,%xmm8,%xmm11 .byte 196,227,37,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm11,%ymm7 .byte 196,193,33,114,213,16 // vpsrld $0x10,%xmm13,%xmm11 .byte 196,99,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm6 .byte 197,201,114,214,16 // vpsrld $0x10,%xmm6,%xmm6 .byte 196,227,37,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm11,%ymm6 .byte 196,193,33,114,215,13 // vpsrld $0xd,%xmm15,%xmm11 .byte 196,193,76,86,242 // vorps %ymm10,%ymm6,%ymm6 .byte 196,227,125,25,245,1 // vextractf128 $0x1,%ymm6,%xmm5 .byte 196,193,81,254,235 // vpaddd %xmm11,%xmm5,%xmm5 .byte 196,193,89,114,214,13 // vpsrld $0xd,%xmm14,%xmm4 .byte 197,201,254,228 // vpaddd %xmm4,%xmm6,%xmm4 .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,99,93,74,232,112 // vblendvps %ymm7,%ymm0,%ymm4,%ymm13 .byte 196,193,108,84,225 // vandps %ymm9,%ymm2,%ymm4 .byte 197,236,87,236 // vxorps %ymm4,%ymm2,%ymm5 .byte 196,227,125,25,238,1 // vextractf128 $0x1,%ymm5,%xmm6 .byte 197,185,102,254 // vpcmpgtd %xmm6,%xmm8,%xmm7 .byte 197,57,102,221 // vpcmpgtd %xmm5,%xmm8,%xmm11 .byte 196,227,37,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm11,%ymm7 .byte 197,161,114,212,16 // vpsrld $0x10,%xmm4,%xmm11 .byte 196,227,125,25,228,1 // vextractf128 $0x1,%ymm4,%xmm4 .byte 197,217,114,212,16 // vpsrld $0x10,%xmm4,%xmm4 .byte 196,227,37,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm11,%ymm4 .byte 197,201,114,214,13 // vpsrld $0xd,%xmm6,%xmm6 .byte 196,193,92,86,226 // vorps %ymm10,%ymm4,%ymm4 .byte 196,227,125,25,225,1 // vextractf128 $0x1,%ymm4,%xmm1 .byte 197,241,254,206 // vpaddd %xmm6,%xmm1,%xmm1 .byte 197,209,114,213,13 // vpsrld $0xd,%xmm5,%xmm5 .byte 197,217,254,229 // vpaddd %xmm5,%xmm4,%xmm4 .byte 196,227,93,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm4,%ymm1 .byte 196,99,117,74,216,112 // vblendvps %ymm7,%ymm0,%ymm1,%ymm11 .byte 196,193,100,84,225 // vandps %ymm9,%ymm3,%ymm4 .byte 197,228,87,236 // vxorps %ymm4,%ymm3,%ymm5 .byte 196,227,125,25,238,1 // vextractf128 $0x1,%ymm5,%xmm6 .byte 197,185,102,254 // vpcmpgtd %xmm6,%xmm8,%xmm7 .byte 197,57,102,197 // vpcmpgtd %xmm5,%xmm8,%xmm8 .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7 .byte 197,185,114,212,16 // vpsrld $0x10,%xmm4,%xmm8 .byte 196,227,125,25,228,1 // vextractf128 $0x1,%ymm4,%xmm4 .byte 197,217,114,212,16 // vpsrld $0x10,%xmm4,%xmm4 .byte 196,227,61,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm4 .byte 196,193,92,86,226 // vorps %ymm10,%ymm4,%ymm4 .byte 197,201,114,214,13 // vpsrld $0xd,%xmm6,%xmm6 .byte 196,227,125,25,225,1 // vextractf128 $0x1,%ymm4,%xmm1 .byte 197,241,254,206 // vpaddd %xmm6,%xmm1,%xmm1 .byte 197,209,114,213,13 // vpsrld $0xd,%xmm5,%xmm5 .byte 197,217,254,229 // vpaddd %xmm5,%xmm4,%xmm4 .byte 196,227,93,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm4,%ymm1 .byte 196,227,117,74,200,112 // vblendvps %ymm7,%ymm0,%ymm1,%ymm1 .byte 196,99,125,25,224,1 // vextractf128 $0x1,%ymm12,%xmm0 .byte 196,226,25,43,192 // vpackusdw %xmm0,%xmm12,%xmm0 .byte 196,99,125,25,236,1 // vextractf128 $0x1,%ymm13,%xmm4 .byte 196,226,17,43,228 // vpackusdw %xmm4,%xmm13,%xmm4 .byte 196,99,125,25,221,1 // vextractf128 $0x1,%ymm11,%xmm5 .byte 196,226,33,43,245 // vpackusdw %xmm5,%xmm11,%xmm6 .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5 .byte 196,226,113,43,205 // vpackusdw %xmm5,%xmm1,%xmm1 .byte 197,249,97,236 // vpunpcklwd %xmm4,%xmm0,%xmm5 .byte 197,249,105,196 // vpunpckhwd %xmm4,%xmm0,%xmm0 .byte 197,201,97,225 // vpunpcklwd %xmm1,%xmm6,%xmm4 .byte 197,201,105,201 // vpunpckhwd %xmm1,%xmm6,%xmm1 .byte 197,81,98,220 // vpunpckldq %xmm4,%xmm5,%xmm11 .byte 197,81,106,212 // vpunpckhdq %xmm4,%xmm5,%xmm10 .byte 197,121,98,201 // vpunpckldq %xmm1,%xmm0,%xmm9 .byte 197,121,106,193 // vpunpckhdq %xmm1,%xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,70 // jne 5e00 <_sk_store_f16_avx+0x274> .byte 196,65,120,17,28,193 // vmovups %xmm11,(%r9,%rax,8) .byte 196,65,120,17,84,193,16 // vmovups %xmm10,0x10(%r9,%rax,8) .byte 196,65,120,17,76,193,32 // vmovups %xmm9,0x20(%r9,%rax,8) .byte 196,65,122,127,68,193,48 // vmovdqu %xmm8,0x30(%r9,%rax,8) .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0 .byte 197,252,16,76,36,160 // vmovups -0x60(%rsp),%ymm1 .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4 .byte 197,252,16,108,36,224 // vmovups -0x20(%rsp),%ymm5 .byte 197,252,16,52,36 // vmovups (%rsp),%ymm6 .byte 197,252,16,124,36,32 // vmovups 0x20(%rsp),%ymm7 .byte 72,131,196,88 // add $0x58,%rsp .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,193 // vmovq %xmm11,(%r9,%rax,8) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,201 // je 5dd5 <_sk_store_f16_avx+0x249> .byte 196,65,121,23,92,193,8 // vmovhpd %xmm11,0x8(%r9,%rax,8) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,188 // jb 5dd5 <_sk_store_f16_avx+0x249> .byte 196,65,121,214,84,193,16 // vmovq %xmm10,0x10(%r9,%rax,8) .byte 116,179 // je 5dd5 <_sk_store_f16_avx+0x249> .byte 196,65,121,23,84,193,24 // vmovhpd %xmm10,0x18(%r9,%rax,8) .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,166 // jb 5dd5 <_sk_store_f16_avx+0x249> .byte 196,65,121,214,76,193,32 // vmovq %xmm9,0x20(%r9,%rax,8) .byte 116,157 // je 5dd5 <_sk_store_f16_avx+0x249> .byte 196,65,121,23,76,193,40 // vmovhpd %xmm9,0x28(%r9,%rax,8) .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,144 // jb 5dd5 <_sk_store_f16_avx+0x249> .byte 196,65,121,214,68,193,48 // vmovq %xmm8,0x30(%r9,%rax,8) .byte 235,135 // jmp 5dd5 <_sk_store_f16_avx+0x249> HIDDEN _sk_load_u16_be_avx .globl _sk_load_u16_be_avx FUNCTION(_sk_load_u16_be_avx) _sk_load_u16_be_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,253,0,0,0 // jne 5f72 <_sk_load_u16_be_avx+0x124> .byte 196,65,121,16,4,65 // vmovupd (%r9,%rax,2),%xmm8 .byte 196,193,121,16,84,65,16 // vmovupd 0x10(%r9,%rax,2),%xmm2 .byte 196,193,121,16,92,65,32 // vmovupd 0x20(%r9,%rax,2),%xmm3 .byte 196,65,122,111,76,65,48 // vmovdqu 0x30(%r9,%rax,2),%xmm9 .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0 .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2 .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1 .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3 .byte 197,121,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm9 .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,113,105,227 // vpunpckhwd %xmm3,%xmm1,%xmm12 .byte 197,177,108,194 // vpunpcklqdq %xmm2,%xmm9,%xmm0 .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1 .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0 .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,29,194,82,0,0 // vbroadcastss 0x52c2(%rip),%ymm11 # b1a8 <_sk_clut_4D_avx+0x2511> .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0 .byte 197,177,109,202 // vpunpckhqdq %xmm2,%xmm9,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1 .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1 .byte 196,193,113,105,210 // vpunpckhwd %xmm10,%xmm1,%xmm2 .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1 .byte 196,193,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm2 .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3 .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2 .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2 .byte 196,193,105,105,218 // vpunpckhwd %xmm10,%xmm2,%xmm3 .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2 .byte 196,193,57,109,220 // vpunpckhqdq %xmm12,%xmm8,%xmm3 .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8 .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3 .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3 .byte 196,65,97,105,194 // vpunpckhwd %xmm10,%xmm3,%xmm8 .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3 .byte 196,195,101,24,216,1 // vinsertf128 $0x1,%xmm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,219 // vmulps %ymm11,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,123,16,4,65 // vmovsd (%r9,%rax,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,85 // je 5fd8 <_sk_load_u16_be_avx+0x18a> .byte 196,65,57,22,68,65,8 // vmovhpd 0x8(%r9,%rax,2),%xmm8,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,72 // jb 5fd8 <_sk_load_u16_be_avx+0x18a> .byte 196,193,123,16,84,65,16 // vmovsd 0x10(%r9,%rax,2),%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 116,72 // je 5fe5 <_sk_load_u16_be_avx+0x197> .byte 196,193,105,22,84,65,24 // vmovhpd 0x18(%r9,%rax,2),%xmm2,%xmm2 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,59 // jb 5fe5 <_sk_load_u16_be_avx+0x197> .byte 196,193,123,16,92,65,32 // vmovsd 0x20(%r9,%rax,2),%xmm3 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 15,132,213,254,255,255 // je 5e90 <_sk_load_u16_be_avx+0x42> .byte 196,193,97,22,92,65,40 // vmovhpd 0x28(%r9,%rax,2),%xmm3,%xmm3 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,130,196,254,255,255 // jb 5e90 <_sk_load_u16_be_avx+0x42> .byte 196,65,122,126,76,65,48 // vmovq 0x30(%r9,%rax,2),%xmm9 .byte 233,184,254,255,255 // jmpq 5e90 <_sk_load_u16_be_avx+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 .byte 233,171,254,255,255 // jmpq 5e90 <_sk_load_u16_be_avx+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 233,162,254,255,255 // jmpq 5e90 <_sk_load_u16_be_avx+0x42> HIDDEN _sk_load_rgb_u16_be_avx .globl _sk_load_rgb_u16_be_avx FUNCTION(_sk_load_rgb_u16_be_avx) _sk_load_rgb_u16_be_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,137,208 // mov %rdx,%rax .byte 72,193,224,32 // shl $0x20,%rax .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,243,0,0,0 // jne 610c <_sk_load_rgb_u16_be_avx+0x11e> .byte 196,193,122,111,4,65 // vmovdqu (%r9,%rax,2),%xmm0 .byte 196,193,122,111,84,65,12 // vmovdqu 0xc(%r9,%rax,2),%xmm2 .byte 196,193,122,111,76,65,24 // vmovdqu 0x18(%r9,%rax,2),%xmm1 .byte 196,193,122,111,92,65,32 // vmovdqu 0x20(%r9,%rax,2),%xmm3 .byte 197,225,115,219,4 // vpsrldq $0x4,%xmm3,%xmm3 .byte 197,185,115,216,6 // vpsrldq $0x6,%xmm0,%xmm8 .byte 197,177,115,218,6 // vpsrldq $0x6,%xmm2,%xmm9 .byte 197,161,115,217,6 // vpsrldq $0x6,%xmm1,%xmm11 .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10 .byte 197,249,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm0 .byte 196,193,57,97,209 // vpunpcklwd %xmm9,%xmm8,%xmm2 .byte 197,241,97,203 // vpunpcklwd %xmm3,%xmm1,%xmm1 .byte 196,193,33,97,218 // vpunpcklwd %xmm10,%xmm11,%xmm3 .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8 .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9 .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2 .byte 197,113,105,211 // vpunpckhwd %xmm3,%xmm1,%xmm10 .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0 .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1 .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0 .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,65,25,239,228 // vpxor %xmm12,%xmm12,%xmm12 .byte 196,193,121,105,204 // vpunpckhwd %xmm12,%xmm0,%xmm1 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,98,125,24,29,9,81,0,0 // vbroadcastss 0x5109(%rip),%ymm11 # b1ac <_sk_clut_4D_avx+0x2515> .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0 .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1 .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1 .byte 196,193,113,105,212 // vpunpckhwd %xmm12,%xmm1,%xmm2 .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1 .byte 196,193,49,108,210 // vpunpcklqdq %xmm10,%xmm9,%xmm2 .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3 .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2 .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2 .byte 196,193,105,105,220 // vpunpckhwd %xmm12,%xmm2,%xmm3 .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2 .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,166,80,0,0 // vbroadcastss 0x50a6(%rip),%ymm3 # b1b0 <_sk_clut_4D_avx+0x2519> .byte 255,224 // jmpq *%rax .byte 196,193,121,110,4,65 // vmovd (%r9,%rax,2),%xmm0 .byte 196,193,121,196,68,65,4,2 // vpinsrw $0x2,0x4(%r9,%rax,2),%xmm0,%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,5 // jne 6125 <_sk_load_rgb_u16_be_avx+0x137> .byte 233,40,255,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> .byte 196,193,121,110,76,65,6 // vmovd 0x6(%r9,%rax,2),%xmm1 .byte 196,65,113,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%rax,2),%xmm1,%xmm8 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,26 // jb 6154 <_sk_load_rgb_u16_be_avx+0x166> .byte 196,193,121,110,76,65,12 // vmovd 0xc(%r9,%rax,2),%xmm1 .byte 196,193,113,196,84,65,16,2 // vpinsrw $0x2,0x10(%r9,%rax,2),%xmm1,%xmm2 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 117,10 // jne 6159 <_sk_load_rgb_u16_be_avx+0x16b> .byte 233,249,254,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> .byte 233,244,254,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> .byte 196,193,121,110,76,65,18 // vmovd 0x12(%r9,%rax,2),%xmm1 .byte 196,65,113,196,76,65,22,2 // vpinsrw $0x2,0x16(%r9,%rax,2),%xmm1,%xmm9 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,26 // jb 6188 <_sk_load_rgb_u16_be_avx+0x19a> .byte 196,193,121,110,76,65,24 // vmovd 0x18(%r9,%rax,2),%xmm1 .byte 196,193,113,196,76,65,28,2 // vpinsrw $0x2,0x1c(%r9,%rax,2),%xmm1,%xmm1 .byte 73,131,248,5 // cmp $0x5,%r8 .byte 117,10 // jne 618d <_sk_load_rgb_u16_be_avx+0x19f> .byte 233,197,254,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> .byte 233,192,254,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> .byte 196,193,121,110,92,65,30 // vmovd 0x1e(%r9,%rax,2),%xmm3 .byte 196,65,97,196,92,65,34,2 // vpinsrw $0x2,0x22(%r9,%rax,2),%xmm3,%xmm11 .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,20 // jb 61b6 <_sk_load_rgb_u16_be_avx+0x1c8> .byte 196,193,121,110,92,65,36 // vmovd 0x24(%r9,%rax,2),%xmm3 .byte 196,193,97,196,92,65,40,2 // vpinsrw $0x2,0x28(%r9,%rax,2),%xmm3,%xmm3 .byte 233,151,254,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> .byte 233,146,254,255,255 // jmpq 604d <_sk_load_rgb_u16_be_avx+0x5f> HIDDEN _sk_store_u16_be_avx .globl _sk_store_u16_be_avx FUNCTION(_sk_store_u16_be_avx) _sk_store_u16_be_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 196,98,125,24,5,210,79,0,0 // vbroadcastss 0x4fd2(%rip),%ymm8 # b1b4 <_sk_clut_4D_avx+0x251d> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10 .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9 .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10 .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9 .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9 .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11 .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10 .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11 .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10 .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10 .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12 .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11 .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12 .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11 .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11 .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12 .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8 .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12 .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8 .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8 .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12 .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13 .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9 .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8 .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11 .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10 .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9 .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,31 // jne 62c6 <_sk_store_u16_be_avx+0x10b> .byte 196,65,120,17,28,65 // vmovups %xmm11,(%r9,%rax,2) .byte 196,65,120,17,84,65,16 // vmovups %xmm10,0x10(%r9,%rax,2) .byte 196,65,120,17,76,65,32 // vmovups %xmm9,0x20(%r9,%rax,2) .byte 196,65,122,127,68,65,48 // vmovdqu %xmm8,0x30(%r9,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,65 // vmovq %xmm11,(%r9,%rax,2) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 62c2 <_sk_store_u16_be_avx+0x107> .byte 196,65,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%rax,2) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 62c2 <_sk_store_u16_be_avx+0x107> .byte 196,65,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%rax,2) .byte 116,218 // je 62c2 <_sk_store_u16_be_avx+0x107> .byte 196,65,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%rax,2) .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,205 // jb 62c2 <_sk_store_u16_be_avx+0x107> .byte 196,65,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%rax,2) .byte 116,196 // je 62c2 <_sk_store_u16_be_avx+0x107> .byte 196,65,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%rax,2) .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,183 // jb 62c2 <_sk_store_u16_be_avx+0x107> .byte 196,65,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%rax,2) .byte 235,174 // jmp 62c2 <_sk_store_u16_be_avx+0x107> HIDDEN _sk_load_f32_avx .globl _sk_load_f32_avx FUNCTION(_sk_load_f32_avx) _sk_load_f32_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,135,128,0,0,0 // ja 63a0 <_sk_load_f32_avx+0x8c> .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 77,99,210 // movslq %r10d,%r10 .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 63c8 <_sk_load_f32_avx+0xb4> .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,3,125,24,68,145,112,1 // vinsertf128 $0x1,0x70(%r9,%r10,4),%ymm0,%ymm8 .byte 196,131,125,24,92,145,96,1 // vinsertf128 $0x1,0x60(%r9,%r10,4),%ymm0,%ymm3 .byte 196,131,125,24,76,145,80,1 // vinsertf128 $0x1,0x50(%r9,%r10,4),%ymm0,%ymm1 .byte 196,131,125,24,84,145,64,1 // vinsertf128 $0x1,0x40(%r9,%r10,4),%ymm0,%ymm2 .byte 196,129,121,16,68,145,48 // vmovupd 0x30(%r9,%r10,4),%xmm0 .byte 196,195,125,13,192,12 // vblendpd $0xc,%ymm8,%ymm0,%ymm0 .byte 196,1,121,16,68,145,32 // vmovupd 0x20(%r9,%r10,4),%xmm8 .byte 196,99,61,13,203,12 // vblendpd $0xc,%ymm3,%ymm8,%ymm9 .byte 196,129,121,16,92,145,16 // vmovupd 0x10(%r9,%r10,4),%xmm3 .byte 196,99,101,13,209,12 // vblendpd $0xc,%ymm1,%ymm3,%ymm10 .byte 196,129,121,16,12,145 // vmovupd (%r9,%r10,4),%xmm1 .byte 196,227,117,13,202,12 // vblendpd $0xc,%ymm2,%ymm1,%ymm1 .byte 196,193,116,20,210 // vunpcklps %ymm10,%ymm1,%ymm2 .byte 196,193,116,21,218 // vunpckhps %ymm10,%ymm1,%ymm3 .byte 197,180,20,200 // vunpcklps %ymm0,%ymm9,%ymm1 .byte 197,52,21,192 // vunpckhps %ymm0,%ymm9,%ymm8 .byte 197,237,20,193 // vunpcklpd %ymm1,%ymm2,%ymm0 .byte 197,237,21,201 // vunpckhpd %ymm1,%ymm2,%ymm1 .byte 196,193,101,20,208 // vunpcklpd %ymm8,%ymm3,%ymm2 .byte 196,193,101,21,216 // vunpckhpd %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 133,255 // test %edi,%edi .byte 255 // (bad) .byte 255,204 // dec %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 191,255,255,255,178 // mov $0xb2ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255,149,255,255,255,141 // callq *-0x72000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_f32_dst_avx .globl _sk_load_f32_dst_avx FUNCTION(_sk_load_f32_dst_avx) _sk_load_f32_dst_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,131,248,7 // cmp $0x7,%r8 .byte 15,135,128,0,0,0 // ja 6474 <_sk_load_f32_dst_avx+0x8c> .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 77,99,210 // movslq %r10d,%r10 .byte 76,141,29,132,0,0,0 // lea 0x84(%rip),%r11 # 649c <_sk_load_f32_dst_avx+0xb4> .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax .byte 76,1,216 // add %r11,%rax .byte 255,224 // jmpq *%rax .byte 196,3,125,24,68,145,112,1 // vinsertf128 $0x1,0x70(%r9,%r10,4),%ymm0,%ymm8 .byte 196,131,125,24,124,145,96,1 // vinsertf128 $0x1,0x60(%r9,%r10,4),%ymm0,%ymm7 .byte 196,131,125,24,108,145,80,1 // vinsertf128 $0x1,0x50(%r9,%r10,4),%ymm0,%ymm5 .byte 196,131,125,24,116,145,64,1 // vinsertf128 $0x1,0x40(%r9,%r10,4),%ymm0,%ymm6 .byte 196,129,121,16,100,145,48 // vmovupd 0x30(%r9,%r10,4),%xmm4 .byte 196,195,93,13,224,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm4 .byte 196,1,121,16,68,145,32 // vmovupd 0x20(%r9,%r10,4),%xmm8 .byte 196,99,61,13,207,12 // vblendpd $0xc,%ymm7,%ymm8,%ymm9 .byte 196,129,121,16,124,145,16 // vmovupd 0x10(%r9,%r10,4),%xmm7 .byte 196,99,69,13,213,12 // vblendpd $0xc,%ymm5,%ymm7,%ymm10 .byte 196,129,121,16,44,145 // vmovupd (%r9,%r10,4),%xmm5 .byte 196,227,85,13,238,12 // vblendpd $0xc,%ymm6,%ymm5,%ymm5 .byte 196,193,84,20,242 // vunpcklps %ymm10,%ymm5,%ymm6 .byte 196,193,84,21,250 // vunpckhps %ymm10,%ymm5,%ymm7 .byte 197,180,20,236 // vunpcklps %ymm4,%ymm9,%ymm5 .byte 197,52,21,196 // vunpckhps %ymm4,%ymm9,%ymm8 .byte 197,205,20,229 // vunpcklpd %ymm5,%ymm6,%ymm4 .byte 197,205,21,237 // vunpckhpd %ymm5,%ymm6,%ymm5 .byte 196,193,69,20,240 // vunpcklpd %ymm8,%ymm7,%ymm6 .byte 196,193,69,21,248 // vunpckhpd %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 133,255 // test %edi,%edi .byte 255 // (bad) .byte 255,204 // dec %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 191,255,255,255,178 // mov $0xb2ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255,149,255,255,255,141 // callq *-0x72000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_store_f32_avx .globl _sk_store_f32_avx FUNCTION(_sk_store_f32_avx) _sk_store_f32_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 197,124,20,193 // vunpcklps %ymm1,%ymm0,%ymm8 .byte 197,124,21,217 // vunpckhps %ymm1,%ymm0,%ymm11 .byte 197,108,20,203 // vunpcklps %ymm3,%ymm2,%ymm9 .byte 197,108,21,227 // vunpckhps %ymm3,%ymm2,%ymm12 .byte 196,65,61,20,209 // vunpcklpd %ymm9,%ymm8,%ymm10 .byte 196,65,61,21,201 // vunpckhpd %ymm9,%ymm8,%ymm9 .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8 .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11 .byte 77,133,192 // test %r8,%r8 .byte 117,55 // jne 653b <_sk_store_f32_avx+0x7f> .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12 .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13 .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9 .byte 196,67,61,6,195,49 // vperm2f128 $0x31,%ymm11,%ymm8,%ymm8 .byte 196,65,125,17,36,129 // vmovupd %ymm12,(%r9,%rax,4) .byte 196,65,125,17,108,129,32 // vmovupd %ymm13,0x20(%r9,%rax,4) .byte 196,65,125,17,76,129,64 // vmovupd %ymm9,0x40(%r9,%rax,4) .byte 196,65,125,17,68,129,96 // vmovupd %ymm8,0x60(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,17,20,129 // vmovupd %xmm10,(%r9,%rax,4) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 6537 <_sk_store_f32_avx+0x7b> .byte 196,65,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%rax,4) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 6537 <_sk_store_f32_avx+0x7b> .byte 196,65,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%rax,4) .byte 116,218 // je 6537 <_sk_store_f32_avx+0x7b> .byte 196,65,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%rax,4) .byte 73,131,248,5 // cmp $0x5,%r8 .byte 114,205 // jb 6537 <_sk_store_f32_avx+0x7b> .byte 196,67,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%rax,4) .byte 116,195 // je 6537 <_sk_store_f32_avx+0x7b> .byte 196,67,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%rax,4) .byte 73,131,248,7 // cmp $0x7,%r8 .byte 114,181 // jb 6537 <_sk_store_f32_avx+0x7b> .byte 196,67,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%rax,4) .byte 235,171 // jmp 6537 <_sk_store_f32_avx+0x7b> HIDDEN _sk_clamp_x_avx .globl _sk_clamp_x_avx FUNCTION(_sk_clamp_x_avx) _sk_clamp_x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,99,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm0 .byte 196,65,41,118,210 // vpcmpeqd %xmm10,%xmm10,%xmm10 .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0 .byte 196,65,57,254,194 // vpaddd %xmm10,%xmm8,%xmm8 .byte 196,227,61,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm8,%ymm0 .byte 197,180,93,192 // vminps %ymm0,%ymm9,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_y_avx .globl _sk_clamp_y_avx FUNCTION(_sk_clamp_y_avx) _sk_clamp_y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,95,201 // vmaxps %ymm1,%ymm8,%ymm9 .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,99,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm1 .byte 196,65,41,118,210 // vpcmpeqd %xmm10,%xmm10,%xmm10 .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1 .byte 196,65,57,254,194 // vpaddd %xmm10,%xmm8,%xmm8 .byte 196,227,61,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm8,%ymm1 .byte 197,180,93,201 // vminps %ymm1,%ymm9,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_avx .globl _sk_repeat_x_avx FUNCTION(_sk_repeat_x_avx) _sk_repeat_x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,95,192 // vmaxps %ymm0,%ymm8,%ymm8 .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0 .byte 196,65,41,118,210 // vpcmpeqd %xmm10,%xmm10,%xmm10 .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0 .byte 196,65,49,254,202 // vpaddd %xmm10,%xmm9,%xmm9 .byte 196,227,53,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm0 .byte 197,188,93,192 // vminps %ymm0,%ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_y_avx .globl _sk_repeat_y_avx FUNCTION(_sk_repeat_y_avx) _sk_repeat_y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8 .byte 197,60,89,193 // vmulps %ymm1,%ymm8,%ymm8 .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,95,193 // vmaxps %ymm1,%ymm8,%ymm8 .byte 196,99,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm1 .byte 196,65,41,118,210 // vpcmpeqd %xmm10,%xmm10,%xmm10 .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1 .byte 196,65,49,254,202 // vpaddd %xmm10,%xmm9,%xmm9 .byte 196,227,53,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm9,%ymm1 .byte 197,188,93,201 // vminps %ymm1,%ymm8,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_avx .globl _sk_mirror_x_avx FUNCTION(_sk_mirror_x_avx) _sk_mirror_x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,121,110,0 // vmovd (%rax),%xmm8 .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9 .byte 196,65,121,112,208,0 // vpshufd $0x0,%xmm8,%xmm10 .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10 .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11 .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0 .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8 .byte 197,178,89,5,247,74,0,0 // vmulss 0x4af7(%rip),%xmm9,%xmm0 # b1b8 <_sk_clut_4D_avx+0x2521> .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0 .byte 197,60,95,192 // vmaxps %ymm0,%ymm8,%ymm8 .byte 196,99,125,25,208,1 // vextractf128 $0x1,%ymm10,%xmm0 .byte 196,65,49,118,201 // vpcmpeqd %xmm9,%xmm9,%xmm9 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,65,41,254,201 // vpaddd %xmm9,%xmm10,%xmm9 .byte 196,227,53,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm0 .byte 197,188,93,192 // vminps %ymm0,%ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_y_avx .globl _sk_mirror_y_avx FUNCTION(_sk_mirror_y_avx) _sk_mirror_y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,121,110,0 // vmovd (%rax),%xmm8 .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9 .byte 196,65,121,112,208,0 // vpshufd $0x0,%xmm8,%xmm10 .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10 .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11 .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1 .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1 .byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8 .byte 197,178,89,13,110,74,0,0 // vmulss 0x4a6e(%rip),%xmm9,%xmm1 # b1bc <_sk_clut_4D_avx+0x2525> .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1 .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1 .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,201 // vsubps %ymm1,%ymm8,%ymm9 .byte 197,180,84,201 // vandps %ymm1,%ymm9,%ymm1 .byte 197,60,95,193 // vmaxps %ymm1,%ymm8,%ymm8 .byte 196,99,125,25,209,1 // vextractf128 $0x1,%ymm10,%xmm1 .byte 196,65,49,118,201 // vpcmpeqd %xmm9,%xmm9,%xmm9 .byte 196,193,113,254,201 // vpaddd %xmm9,%xmm1,%xmm1 .byte 196,65,41,254,201 // vpaddd %xmm9,%xmm10,%xmm9 .byte 196,227,53,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm9,%ymm1 .byte 197,188,93,201 // vminps %ymm1,%ymm8,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_x_1_avx .globl _sk_clamp_x_1_avx FUNCTION(_sk_clamp_x_1_avx) _sk_clamp_x_1_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 .byte 196,98,125,24,5,8,74,0,0 // vbroadcastss 0x4a08(%rip),%ymm8 # b1c0 <_sk_clut_4D_avx+0x2529> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_1_avx .globl _sk_repeat_x_1_avx FUNCTION(_sk_repeat_x_1_avx) _sk_repeat_x_1_avx: .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8 .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_1_avx .globl _sk_mirror_x_1_avx FUNCTION(_sk_mirror_x_1_avx) _sk_mirror_x_1_avx: .byte 196,98,125,24,5,235,73,0,0 // vbroadcastss 0x49eb(%rip),%ymm8 # b1c4 <_sk_clut_4D_avx+0x252d> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,13,225,73,0,0 // vbroadcastss 0x49e1(%rip),%ymm9 # b1c8 <_sk_clut_4D_avx+0x2531> .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9 .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8 .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_luminance_to_alpha_avx .globl _sk_luminance_to_alpha_avx FUNCTION(_sk_luminance_to_alpha_avx) _sk_luminance_to_alpha_avx: .byte 196,226,125,24,29,177,73,0,0 // vbroadcastss 0x49b1(%rip),%ymm3 # b1cc <_sk_clut_4D_avx+0x2535> .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,226,125,24,29,168,73,0,0 // vbroadcastss 0x49a8(%rip),%ymm3 # b1d0 <_sk_clut_4D_avx+0x2539> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 196,226,125,24,13,155,73,0,0 // vbroadcastss 0x499b(%rip),%ymm1 # b1d4 <_sk_clut_4D_avx+0x253d> .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1 .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_translate_avx .globl _sk_matrix_translate_avx FUNCTION(_sk_matrix_translate_avx) _sk_matrix_translate_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_scale_translate_avx .globl _sk_matrix_scale_translate_avx FUNCTION(_sk_matrix_scale_translate_avx) _sk_matrix_scale_translate_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0 .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_2x3_avx .globl _sk_matrix_2x3_avx FUNCTION(_sk_matrix_2x3_avx) _sk_matrix_2x3_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,98,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm9 .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10 .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10 .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11 .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1 .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_3x4_avx .globl _sk_matrix_3x4_avx FUNCTION(_sk_matrix_3x4_avx) _sk_matrix_3x4_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,98,125,24,88,36 // vbroadcastss 0x24(%rax),%ymm11 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10 .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11 .byte 196,98,125,24,96,40 // vbroadcastss 0x28(%rax),%ymm12 .byte 197,36,89,218 // vmulps %ymm2,%ymm11,%ymm11 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10 .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11 .byte 196,98,125,24,96,32 // vbroadcastss 0x20(%rax),%ymm12 .byte 196,98,125,24,104,44 // vbroadcastss 0x2c(%rax),%ymm13 .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2 .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 197,252,88,209 // vaddps %ymm1,%ymm0,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x5_avx .globl _sk_matrix_4x5_avx FUNCTION(_sk_matrix_4x5_avx) _sk_matrix_4x5_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,98,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm9 .byte 196,98,125,24,80,32 // vbroadcastss 0x20(%rax),%ymm10 .byte 196,98,125,24,88,48 // vbroadcastss 0x30(%rax),%ymm11 .byte 196,98,125,24,96,64 // vbroadcastss 0x40(%rax),%ymm12 .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,98,125,24,88,36 // vbroadcastss 0x24(%rax),%ymm11 .byte 196,98,125,24,96,52 // vbroadcastss 0x34(%rax),%ymm12 .byte 196,98,125,24,104,68 // vbroadcastss 0x44(%rax),%ymm13 .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12 .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 197,36,89,218 // vmulps %ymm2,%ymm11,%ymm11 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10 .byte 196,98,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm11 .byte 196,98,125,24,96,40 // vbroadcastss 0x28(%rax),%ymm12 .byte 196,98,125,24,104,56 // vbroadcastss 0x38(%rax),%ymm13 .byte 196,98,125,24,112,72 // vbroadcastss 0x48(%rax),%ymm14 .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13 .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 .byte 197,28,89,226 // vmulps %ymm2,%ymm12,%ymm12 .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 197,36,89,217 // vmulps %ymm1,%ymm11,%ymm11 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 .byte 197,44,89,208 // vmulps %ymm0,%ymm10,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,98,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm11 .byte 196,98,125,24,96,28 // vbroadcastss 0x1c(%rax),%ymm12 .byte 196,98,125,24,104,44 // vbroadcastss 0x2c(%rax),%ymm13 .byte 196,98,125,24,112,60 // vbroadcastss 0x3c(%rax),%ymm14 .byte 196,98,125,24,120,76 // vbroadcastss 0x4c(%rax),%ymm15 .byte 197,140,89,219 // vmulps %ymm3,%ymm14,%ymm3 .byte 196,193,100,88,223 // vaddps %ymm15,%ymm3,%ymm3 .byte 197,148,89,210 // vmulps %ymm2,%ymm13,%ymm2 .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2 .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1 .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 197,124,41,210 // vmovaps %ymm10,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x3_avx .globl _sk_matrix_4x3_avx FUNCTION(_sk_matrix_4x3_avx) _sk_matrix_4x3_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2 .byte 196,226,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm3 .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8 .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3 .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3 .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2 .byte 197,108,88,195 // vaddps %ymm3,%ymm2,%ymm8 .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2 .byte 196,226,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm3 .byte 196,98,125,24,72,36 // vbroadcastss 0x24(%rax),%ymm9 .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3 .byte 196,193,100,88,217 // vaddps %ymm9,%ymm3,%ymm3 .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2 .byte 197,108,88,203 // vaddps %ymm3,%ymm2,%ymm9 .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2 .byte 196,226,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm3 .byte 196,98,125,24,80,40 // vbroadcastss 0x28(%rax),%ymm10 .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3 .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2 .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2 .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3 .byte 196,98,125,24,80,28 // vbroadcastss 0x1c(%rax),%ymm10 .byte 196,98,125,24,88,44 // vbroadcastss 0x2c(%rax),%ymm11 .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1 .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,124,41,201 // vmovaps %ymm9,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_perspective_avx .globl _sk_matrix_perspective_avx FUNCTION(_sk_matrix_perspective_avx) _sk_matrix_perspective_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9 .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10 .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9 .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10 .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11 .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9 .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10 .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11 .byte 196,98,125,24,96,32 // vbroadcastss 0x20(%rax),%ymm12 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,83,200 // vrcpps %ymm0,%ymm1 .byte 197,188,89,193 // vmulps %ymm1,%ymm8,%ymm0 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_gradient_avx .globl _sk_evenly_spaced_gradient_avx FUNCTION(_sk_evenly_spaced_gradient_avx) _sk_evenly_spaced_gradient_avx: .byte 85 // push %rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 197,252,17,124,36,216 // vmovups %ymm7,-0x28(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,139,24 // mov (%rax),%rbx .byte 72,139,104,8 // mov 0x8(%rax),%rbp .byte 72,255,203 // dec %rbx .byte 120,7 // js 6bdd <_sk_evenly_spaced_gradient_avx+0x25> .byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1 .byte 235,21 // jmp 6bf2 <_sk_evenly_spaced_gradient_avx+0x3a> .byte 73,137,217 // mov %rbx,%r9 .byte 73,209,233 // shr %r9 .byte 131,227,1 // and $0x1,%ebx .byte 76,9,203 // or %r9,%rbx .byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1 .byte 197,242,88,201 // vaddss %xmm1,%xmm1,%xmm1 .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1 .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1 .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1 .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 69,137,222 // mov %r11d,%r14d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,195,249,22,204,1 // vpextrq $0x1,%xmm1,%r12 .byte 69,137,231 // mov %r12d,%r15d .byte 73,193,236,32 // shr $0x20,%r12 .byte 196,225,249,126,203 // vmovq %xmm1,%rbx .byte 65,137,221 // mov %ebx,%r13d .byte 72,193,235,32 // shr $0x20,%rbx .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1 .byte 196,227,113,33,76,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm1,%xmm1 .byte 196,161,122,16,84,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm2 .byte 196,33,122,16,68,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm8 .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3 .byte 196,35,97,33,76,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm3,%xmm9 .byte 196,161,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm7 .byte 196,33,122,16,92,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm11 .byte 196,99,113,33,226,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm12 .byte 72,139,104,40 // mov 0x28(%rax),%rbp .byte 196,161,122,16,84,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm2 .byte 196,99,105,33,108,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm2,%xmm13 .byte 196,161,122,16,92,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm3 .byte 196,161,122,16,76,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm1 .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2 .byte 196,35,105,33,116,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm2,%xmm14 .byte 196,33,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm15 .byte 196,33,122,16,84,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm10 .byte 196,67,25,33,192,48 // vinsertps $0x30,%xmm8,%xmm12,%xmm8 .byte 196,227,49,33,215,32 // vinsertps $0x20,%xmm7,%xmm9,%xmm2 .byte 196,195,105,33,211,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm2 .byte 196,67,109,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm8 .byte 196,227,17,33,211,32 // vinsertps $0x20,%xmm3,%xmm13,%xmm2 .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9 .byte 72,139,104,16 // mov 0x10(%rax),%rbp .byte 196,161,122,16,84,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm2 .byte 196,99,105,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm2,%xmm11 .byte 196,33,122,16,100,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm12 .byte 196,161,122,16,76,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm1 .byte 196,161,122,16,124,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm7 .byte 196,163,65,33,124,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3 .byte 196,33,122,16,108,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm13 .byte 196,195,9,33,215,32 // vinsertps $0x20,%xmm15,%xmm14,%xmm2 .byte 196,195,105,33,210,48 // vinsertps $0x30,%xmm10,%xmm2,%xmm2 .byte 196,67,109,24,241,1 // vinsertf128 $0x1,%xmm9,%ymm2,%ymm14 .byte 196,195,33,33,212,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm2 .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9 .byte 196,99,65,33,211,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm10 .byte 72,139,104,48 // mov 0x30(%rax),%rbp .byte 196,161,122,16,92,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm3 .byte 196,99,97,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm3,%xmm11 .byte 196,33,122,16,124,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm15 .byte 196,33,122,16,100,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm12 .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2 .byte 196,163,105,33,84,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm7 .byte 196,161,122,16,92,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm3 .byte 196,67,41,33,213,48 // vinsertps $0x30,%xmm13,%xmm10,%xmm10 .byte 196,67,45,24,233,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm13 .byte 196,195,33,33,207,32 // vinsertps $0x20,%xmm15,%xmm11,%xmm1 .byte 196,67,113,33,204,48 // vinsertps $0x30,%xmm12,%xmm1,%xmm9 .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2 .byte 196,99,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm10 .byte 72,139,104,24 // mov 0x18(%rax),%rbp .byte 196,161,122,16,92,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm3 .byte 196,99,97,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm3,%xmm11 .byte 196,33,122,16,100,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm12 .byte 196,33,122,16,124,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm15 .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2 .byte 196,163,105,33,84,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3 .byte 196,161,122,16,124,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm7 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,195,33,33,204,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm1 .byte 196,195,113,33,207,48 // vinsertps $0x30,%xmm15,%xmm1,%xmm1 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2 .byte 196,99,109,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm10 .byte 72,139,104,56 // mov 0x38(%rax),%rbp .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1 .byte 196,99,113,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm1,%xmm11 .byte 196,33,122,16,100,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm12 .byte 196,33,122,16,124,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm15 .byte 196,161,122,16,124,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm7 .byte 196,163,65,33,124,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,76,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm1 .byte 196,161,122,16,84,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm2 .byte 196,195,33,33,220,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm3 .byte 196,195,97,33,223,48 // vinsertps $0x30,%xmm15,%xmm3,%xmm3 .byte 196,227,65,33,201,32 // vinsertps $0x20,%xmm1,%xmm7,%xmm1 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 196,99,117,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm11 .byte 72,139,104,32 // mov 0x20(%rax),%rbp .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1 .byte 196,227,113,33,76,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm1,%xmm1 .byte 196,161,122,16,84,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm2 .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1 .byte 196,161,122,16,84,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm2 .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3 .byte 196,35,97,33,100,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm3,%xmm12 .byte 196,161,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm7 .byte 196,161,122,16,92,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm3 .byte 196,99,113,33,250,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm15 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,161,122,16,20,168 // vmovss (%rax,%r13,4),%xmm2 .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2 .byte 196,227,25,33,255,32 // vinsertps $0x20,%xmm7,%xmm12,%xmm7 .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1 .byte 196,227,65,33,219,48 // vinsertps $0x30,%xmm3,%xmm7,%xmm3 .byte 196,161,122,16,60,160 // vmovss (%rax,%r12,4),%xmm7 .byte 196,67,101,24,231,1 // vinsertf128 $0x1,%xmm15,%ymm3,%ymm12 .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,227,105,33,201,32 // vinsertps $0x20,%xmm1,%xmm2,%xmm1 .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2 .byte 196,227,113,33,207,48 // vinsertps $0x30,%xmm7,%xmm1,%xmm1 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,97,33,210,32 // vinsertps $0x20,%xmm2,%xmm3,%xmm2 .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2 .byte 196,227,109,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm3 .byte 197,188,89,200 // vmulps %ymm0,%ymm8,%ymm1 .byte 196,65,116,88,198 // vaddps %ymm14,%ymm1,%ymm8 .byte 197,148,89,200 // vmulps %ymm0,%ymm13,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 197,172,89,208 // vmulps %ymm0,%ymm10,%ymm2 .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0 .byte 197,252,88,219 // vaddps %ymm3,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,252,16,124,36,216 // vmovups -0x28(%rsp),%ymm7 .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_gauss_a_to_rgba_avx .globl _sk_gauss_a_to_rgba_avx FUNCTION(_sk_gauss_a_to_rgba_avx) _sk_gauss_a_to_rgba_avx: .byte 196,226,125,24,5,130,66,0,0 // vbroadcastss 0x4282(%rip),%ymm0 # b1d8 <_sk_clut_4D_avx+0x2541> .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 196,226,125,24,13,121,66,0,0 // vbroadcastss 0x4279(%rip),%ymm1 # b1dc <_sk_clut_4D_avx+0x2545> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,226,125,24,13,108,66,0,0 // vbroadcastss 0x426c(%rip),%ymm1 # b1e0 <_sk_clut_4D_avx+0x2549> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,226,125,24,13,95,66,0,0 // vbroadcastss 0x425f(%rip),%ymm1 # b1e4 <_sk_clut_4D_avx+0x254d> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,226,125,24,13,82,66,0,0 // vbroadcastss 0x4252(%rip),%ymm1 # b1e8 <_sk_clut_4D_avx+0x2551> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_gradient_avx .globl _sk_gradient_avx FUNCTION(_sk_gradient_avx) _sk_gradient_avx: .byte 85 // push %rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 197,252,17,124,36,216 // vmovups %ymm7,-0x28(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 73,131,249,2 // cmp $0x2,%r9 .byte 114,80 // jb 7019 <_sk_gradient_avx+0x6f> .byte 72,139,88,72 // mov 0x48(%rax),%rbx .byte 73,255,201 // dec %r9 .byte 72,131,195,4 // add $0x4,%rbx .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 196,98,125,24,21,10,66,0,0 // vbroadcastss 0x420a(%rip),%ymm10 # b1ec <_sk_clut_4D_avx+0x2555> .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8 .byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8 .byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8 .byte 196,99,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm2 .byte 196,227,125,25,203,1 // vextractf128 $0x1,%ymm1,%xmm3 .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2 .byte 197,185,254,201 // vpaddd %xmm1,%xmm8,%xmm1 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 72,131,195,4 // add $0x4,%rbx .byte 73,255,201 // dec %r9 .byte 117,205 // jne 6fe6 <_sk_gradient_avx+0x3c> .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 69,137,222 // mov %r11d,%r14d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 196,195,249,22,204,1 // vpextrq $0x1,%xmm1,%r12 .byte 69,137,231 // mov %r12d,%r15d .byte 73,193,236,32 // shr $0x20,%r12 .byte 196,225,249,126,203 // vmovq %xmm1,%rbx .byte 65,137,221 // mov %ebx,%r13d .byte 72,193,235,32 // shr $0x20,%rbx .byte 72,139,104,8 // mov 0x8(%rax),%rbp .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1 .byte 196,227,113,33,76,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm1,%xmm1 .byte 196,161,122,16,84,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm2 .byte 196,33,122,16,68,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm8 .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3 .byte 196,35,97,33,76,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm3,%xmm9 .byte 196,161,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm7 .byte 196,33,122,16,92,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm11 .byte 196,99,113,33,226,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm12 .byte 72,139,104,40 // mov 0x28(%rax),%rbp .byte 196,161,122,16,84,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm2 .byte 196,99,105,33,108,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm2,%xmm13 .byte 196,161,122,16,92,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm3 .byte 196,161,122,16,76,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm1 .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2 .byte 196,35,105,33,116,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm2,%xmm14 .byte 196,33,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm15 .byte 196,33,122,16,84,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm10 .byte 196,67,25,33,192,48 // vinsertps $0x30,%xmm8,%xmm12,%xmm8 .byte 196,227,49,33,215,32 // vinsertps $0x20,%xmm7,%xmm9,%xmm2 .byte 196,195,105,33,211,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm2 .byte 196,67,109,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm8 .byte 196,227,17,33,211,32 // vinsertps $0x20,%xmm3,%xmm13,%xmm2 .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9 .byte 72,139,104,16 // mov 0x10(%rax),%rbp .byte 196,161,122,16,84,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm2 .byte 196,99,105,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm2,%xmm11 .byte 196,33,122,16,100,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm12 .byte 196,161,122,16,76,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm1 .byte 196,161,122,16,124,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm7 .byte 196,163,65,33,124,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3 .byte 196,33,122,16,108,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm13 .byte 196,195,9,33,215,32 // vinsertps $0x20,%xmm15,%xmm14,%xmm2 .byte 196,195,105,33,210,48 // vinsertps $0x30,%xmm10,%xmm2,%xmm2 .byte 196,67,109,24,241,1 // vinsertf128 $0x1,%xmm9,%ymm2,%ymm14 .byte 196,195,33,33,212,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm2 .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9 .byte 196,99,65,33,211,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm10 .byte 72,139,104,48 // mov 0x30(%rax),%rbp .byte 196,161,122,16,92,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm3 .byte 196,99,97,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm3,%xmm11 .byte 196,33,122,16,124,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm15 .byte 196,33,122,16,100,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm12 .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2 .byte 196,163,105,33,84,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm7 .byte 196,161,122,16,92,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm3 .byte 196,67,41,33,213,48 // vinsertps $0x30,%xmm13,%xmm10,%xmm10 .byte 196,67,45,24,233,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm13 .byte 196,195,33,33,207,32 // vinsertps $0x20,%xmm15,%xmm11,%xmm1 .byte 196,67,113,33,204,48 // vinsertps $0x30,%xmm12,%xmm1,%xmm9 .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2 .byte 196,99,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm10 .byte 72,139,104,24 // mov 0x18(%rax),%rbp .byte 196,161,122,16,92,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm3 .byte 196,99,97,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm3,%xmm11 .byte 196,33,122,16,100,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm12 .byte 196,33,122,16,124,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm15 .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2 .byte 196,163,105,33,84,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3 .byte 196,161,122,16,124,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm7 .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,195,33,33,204,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm1 .byte 196,195,113,33,207,48 // vinsertps $0x30,%xmm15,%xmm1,%xmm1 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2 .byte 196,99,109,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm10 .byte 72,139,104,56 // mov 0x38(%rax),%rbp .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1 .byte 196,99,113,33,92,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm1,%xmm11 .byte 196,33,122,16,100,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm12 .byte 196,33,122,16,124,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm15 .byte 196,161,122,16,124,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm7 .byte 196,163,65,33,124,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,76,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm1 .byte 196,161,122,16,84,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm2 .byte 196,195,33,33,220,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm3 .byte 196,195,97,33,223,48 // vinsertps $0x30,%xmm15,%xmm3,%xmm3 .byte 196,227,65,33,201,32 // vinsertps $0x20,%xmm1,%xmm7,%xmm1 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 196,99,117,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm11 .byte 72,139,104,32 // mov 0x20(%rax),%rbp .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1 .byte 196,227,113,33,76,157,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,4),%xmm1,%xmm1 .byte 196,161,122,16,84,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm2 .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1 .byte 196,161,122,16,84,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm2 .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3 .byte 196,35,97,33,100,157,0,16 // vinsertps $0x10,0x0(%rbp,%r11,4),%xmm3,%xmm12 .byte 196,161,122,16,124,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm7 .byte 196,161,122,16,92,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm3 .byte 196,99,113,33,250,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm15 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,161,122,16,20,168 // vmovss (%rax,%r13,4),%xmm2 .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2 .byte 196,227,25,33,255,32 // vinsertps $0x20,%xmm7,%xmm12,%xmm7 .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1 .byte 196,227,65,33,219,48 // vinsertps $0x30,%xmm3,%xmm7,%xmm3 .byte 196,161,122,16,60,160 // vmovss (%rax,%r12,4),%xmm7 .byte 196,67,101,24,231,1 // vinsertf128 $0x1,%xmm15,%ymm3,%ymm12 .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,227,105,33,201,32 // vinsertps $0x20,%xmm1,%xmm2,%xmm1 .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2 .byte 196,227,113,33,207,48 // vinsertps $0x30,%xmm7,%xmm1,%xmm1 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,97,33,210,32 // vinsertps $0x20,%xmm2,%xmm3,%xmm2 .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2 .byte 196,227,109,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm3 .byte 197,188,89,200 // vmulps %ymm0,%ymm8,%ymm1 .byte 196,65,116,88,198 // vaddps %ymm14,%ymm1,%ymm8 .byte 197,148,89,200 // vmulps %ymm0,%ymm13,%ymm1 .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 197,172,89,208 // vmulps %ymm0,%ymm10,%ymm2 .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0 .byte 197,252,88,219 // vaddps %ymm3,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 197,252,16,124,36,216 // vmovups -0x28(%rsp),%ymm7 .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_2_stop_gradient_avx .globl _sk_evenly_spaced_2_stop_gradient_avx FUNCTION(_sk_evenly_spaced_2_stop_gradient_avx) _sk_evenly_spaced_2_stop_gradient_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1 .byte 196,226,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm2 .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,116,88,194 // vaddps %ymm2,%ymm1,%ymm8 .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1 .byte 196,226,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm2 .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1 .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2 .byte 196,226,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm3 .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2 .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2 .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3 .byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 196,193,124,88,217 // vaddps %ymm9,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_unit_angle_avx .globl _sk_xy_to_unit_angle_avx FUNCTION(_sk_xy_to_unit_angle_avx) _sk_xy_to_unit_angle_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,52,84,200 // vandps %ymm0,%ymm9,%ymm9 .byte 197,60,92,209 // vsubps %ymm1,%ymm8,%ymm10 .byte 197,44,84,209 // vandps %ymm1,%ymm10,%ymm10 .byte 196,65,52,93,218 // vminps %ymm10,%ymm9,%ymm11 .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12 .byte 196,98,125,24,45,0,62,0,0 // vbroadcastss 0x3e00(%rip),%ymm13 # b1f0 <_sk_clut_4D_avx+0x2559> .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 .byte 196,98,125,24,53,246,61,0,0 // vbroadcastss 0x3df6(%rip),%ymm14 # b1f4 <_sk_clut_4D_avx+0x255d> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 .byte 196,98,125,24,53,231,61,0,0 // vbroadcastss 0x3de7(%rip),%ymm14 # b1f8 <_sk_clut_4D_avx+0x2561> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12 .byte 196,98,125,24,45,216,61,0,0 // vbroadcastss 0x3dd8(%rip),%ymm13 # b1fc <_sk_clut_4D_avx+0x2565> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9 .byte 196,98,125,24,21,195,61,0,0 // vbroadcastss 0x3dc3(%rip),%ymm10 # b200 <_sk_clut_4D_avx+0x2569> .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10 .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9 .byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0 .byte 196,98,125,24,21,173,61,0,0 // vbroadcastss 0x3dad(%rip),%ymm10 # b204 <_sk_clut_4D_avx+0x256d> .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9 .byte 196,98,125,24,21,151,61,0,0 // vbroadcastss 0x3d97(%rip),%ymm10 # b208 <_sk_clut_4D_avx+0x2571> .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0 .byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9 .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_radius_avx .globl _sk_xy_to_radius_avx FUNCTION(_sk_xy_to_radius_avx) _sk_xy_to_radius_avx: .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_max_avx .globl _sk_xy_to_2pt_conical_quadratic_max_avx FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_avx) _sk_xy_to_2pt_conical_quadratic_max_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8 .byte 197,122,16,72,40 // vmovss 0x28(%rax),%xmm9 .byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10 .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10 .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 .byte 196,98,125,24,29,65,61,0,0 // vbroadcastss 0x3d41(%rip),%ymm11 # b20c <_sk_clut_4D_avx+0x2575> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,65,124,88,219 // vaddps %ymm11,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 .byte 196,98,125,24,13,21,61,0,0 // vbroadcastss 0x3d15(%rip),%ymm9 # b210 <_sk_clut_4D_avx+0x2579> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8 .byte 196,98,125,24,13,243,60,0,0 // vbroadcastss 0x3cf3(%rip),%ymm9 # b214 <_sk_clut_4D_avx+0x257d> .byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 .byte 196,98,125,24,29,228,60,0,0 // vbroadcastss 0x3ce4(%rip),%ymm11 # b218 <_sk_clut_4D_avx+0x2581> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,172,95,192 // vmaxps %ymm0,%ymm10,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_min_avx .globl _sk_xy_to_2pt_conical_quadratic_min_avx FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_avx) _sk_xy_to_2pt_conical_quadratic_min_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8 .byte 197,122,16,72,40 // vmovss 0x28(%rax),%xmm9 .byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10 .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10 .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 .byte 196,98,125,24,29,163,60,0,0 // vbroadcastss 0x3ca3(%rip),%ymm11 # b21c <_sk_clut_4D_avx+0x2585> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,65,124,88,219 // vaddps %ymm11,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 .byte 196,98,125,24,13,119,60,0,0 // vbroadcastss 0x3c77(%rip),%ymm9 # b220 <_sk_clut_4D_avx+0x2589> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8 .byte 196,98,125,24,13,85,60,0,0 // vbroadcastss 0x3c55(%rip),%ymm9 # b224 <_sk_clut_4D_avx+0x258d> .byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 .byte 196,98,125,24,29,70,60,0,0 // vbroadcastss 0x3c46(%rip),%ymm11 # b228 <_sk_clut_4D_avx+0x2591> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,172,93,192 // vminps %ymm0,%ymm10,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_linear_avx .globl _sk_xy_to_2pt_conical_linear_avx FUNCTION(_sk_xy_to_2pt_conical_linear_avx) _sk_xy_to_2pt_conical_linear_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,122,16,64,40 // vmovss 0x28(%rax),%xmm8 .byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9 .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9 .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 .byte 196,98,125,24,21,11,60,0,0 // vbroadcastss 0x3c0b(%rip),%ymm10 # b22c <_sk_clut_4D_avx+0x2595> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10 .byte 196,65,124,88,210 // vaddps %ymm10,%ymm0,%ymm10 .byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0 .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0 .byte 196,98,125,24,5,223,59,0,0 // vbroadcastss 0x3bdf(%rip),%ymm8 # b230 <_sk_clut_4D_avx+0x2599> .byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0 .byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mask_2pt_conical_degenerates_avx .globl _sk_mask_2pt_conical_degenerates_avx FUNCTION(_sk_mask_2pt_conical_degenerates_avx) _sk_mask_2pt_conical_degenerates_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,64,44 // vbroadcastss 0x2c(%rax),%ymm8 .byte 196,98,125,24,72,40 // vbroadcastss 0x28(%rax),%ymm9 .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8 .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 196,65,52,194,192,2 // vcmpleps %ymm8,%ymm9,%ymm8 .byte 196,65,124,194,201,7 // vcmpordps %ymm9,%ymm0,%ymm9 .byte 196,65,60,84,193 // vandps %ymm9,%ymm8,%ymm8 .byte 197,124,17,0 // vmovups %ymm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_apply_vector_mask_avx .globl _sk_apply_vector_mask_avx FUNCTION(_sk_apply_vector_mask_avx) _sk_apply_vector_mask_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,16,0 // vmovups (%rax),%ymm8 .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0 .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1 .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2 .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_save_xy_avx .globl _sk_save_xy_avx FUNCTION(_sk_save_xy_avx) _sk_save_xy_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,123,59,0,0 // vbroadcastss 0x3b7b(%rip),%ymm8 # b234 <_sk_clut_4D_avx+0x259d> .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9 .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8 .byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10 .byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8 .byte 197,252,17,0 // vmovups %ymm0,(%rax) .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax) .byte 197,124,17,72,64 // vmovups %ymm9,0x40(%rax) .byte 197,124,17,64,96 // vmovups %ymm8,0x60(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_accumulate_avx .globl _sk_accumulate_avx FUNCTION(_sk_accumulate_avx) _sk_accumulate_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 .byte 197,60,89,128,160,0,0,0 // vmulps 0xa0(%rax),%ymm8,%ymm8 .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9 .byte 197,180,88,228 // vaddps %ymm4,%ymm9,%ymm4 .byte 197,60,89,201 // vmulps %ymm1,%ymm8,%ymm9 .byte 197,180,88,237 // vaddps %ymm5,%ymm9,%ymm5 .byte 197,60,89,202 // vmulps %ymm2,%ymm8,%ymm9 .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6 .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8 .byte 197,188,88,255 // vaddps %ymm7,%ymm8,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_nx_avx .globl _sk_bilinear_nx_avx FUNCTION(_sk_bilinear_nx_avx) _sk_bilinear_nx_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,7,59,0,0 // vbroadcastss 0x3b07(%rip),%ymm0 # b238 <_sk_clut_4D_avx+0x25a1> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 196,98,125,24,5,254,58,0,0 // vbroadcastss 0x3afe(%rip),%ymm8 # b23c <_sk_clut_4D_avx+0x25a5> .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_px_avx .globl _sk_bilinear_px_avx FUNCTION(_sk_bilinear_px_avx) _sk_bilinear_px_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,230,58,0,0 // vbroadcastss 0x3ae6(%rip),%ymm0 # b240 <_sk_clut_4D_avx+0x25a9> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_ny_avx .globl _sk_bilinear_ny_avx FUNCTION(_sk_bilinear_ny_avx) _sk_bilinear_ny_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,202,58,0,0 // vbroadcastss 0x3aca(%rip),%ymm1 # b244 <_sk_clut_4D_avx+0x25ad> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 196,98,125,24,5,192,58,0,0 // vbroadcastss 0x3ac0(%rip),%ymm8 # b248 <_sk_clut_4D_avx+0x25b1> .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_py_avx .globl _sk_bilinear_py_avx FUNCTION(_sk_bilinear_py_avx) _sk_bilinear_py_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,168,58,0,0 // vbroadcastss 0x3aa8(%rip),%ymm1 # b24c <_sk_clut_4D_avx+0x25b5> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3x_avx .globl _sk_bicubic_n3x_avx FUNCTION(_sk_bicubic_n3x_avx) _sk_bicubic_n3x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,139,58,0,0 // vbroadcastss 0x3a8b(%rip),%ymm0 # b250 <_sk_clut_4D_avx+0x25b9> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 196,98,125,24,5,130,58,0,0 // vbroadcastss 0x3a82(%rip),%ymm8 # b254 <_sk_clut_4D_avx+0x25bd> .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,115,58,0,0 // vbroadcastss 0x3a73(%rip),%ymm10 # b258 <_sk_clut_4D_avx+0x25c1> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 .byte 196,98,125,24,21,105,58,0,0 // vbroadcastss 0x3a69(%rip),%ymm10 # b25c <_sk_clut_4D_avx+0x25c5> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1x_avx .globl _sk_bicubic_n1x_avx FUNCTION(_sk_bicubic_n1x_avx) _sk_bicubic_n1x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,76,58,0,0 // vbroadcastss 0x3a4c(%rip),%ymm0 # b260 <_sk_clut_4D_avx+0x25c9> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 196,98,125,24,5,67,58,0,0 // vbroadcastss 0x3a43(%rip),%ymm8 # b264 <_sk_clut_4D_avx+0x25cd> .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8 .byte 196,98,125,24,13,57,58,0,0 // vbroadcastss 0x3a39(%rip),%ymm9 # b268 <_sk_clut_4D_avx+0x25d1> .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 .byte 196,98,125,24,21,47,58,0,0 // vbroadcastss 0x3a2f(%rip),%ymm10 # b26c <_sk_clut_4D_avx+0x25d5> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 .byte 196,98,125,24,21,32,58,0,0 // vbroadcastss 0x3a20(%rip),%ymm10 # b270 <_sk_clut_4D_avx+0x25d9> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,13,17,58,0,0 // vbroadcastss 0x3a11(%rip),%ymm9 # b274 <_sk_clut_4D_avx+0x25dd> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1x_avx .globl _sk_bicubic_p1x_avx FUNCTION(_sk_bicubic_p1x_avx) _sk_bicubic_p1x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,249,57,0,0 // vbroadcastss 0x39f9(%rip),%ymm8 # b278 <_sk_clut_4D_avx+0x25e1> .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0 .byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9 .byte 196,98,125,24,21,235,57,0,0 // vbroadcastss 0x39eb(%rip),%ymm10 # b27c <_sk_clut_4D_avx+0x25e5> .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,98,125,24,29,225,57,0,0 // vbroadcastss 0x39e1(%rip),%ymm11 # b280 <_sk_clut_4D_avx+0x25e9> .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 196,98,125,24,13,200,57,0,0 // vbroadcastss 0x39c8(%rip),%ymm9 # b284 <_sk_clut_4D_avx+0x25ed> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3x_avx .globl _sk_bicubic_p3x_avx FUNCTION(_sk_bicubic_p3x_avx) _sk_bicubic_p3x_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,5,176,57,0,0 // vbroadcastss 0x39b0(%rip),%ymm0 # b288 <_sk_clut_4D_avx+0x25f1> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,157,57,0,0 // vbroadcastss 0x399d(%rip),%ymm10 # b28c <_sk_clut_4D_avx+0x25f5> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 .byte 196,98,125,24,21,147,57,0,0 // vbroadcastss 0x3993(%rip),%ymm10 # b290 <_sk_clut_4D_avx+0x25f9> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3y_avx .globl _sk_bicubic_n3y_avx FUNCTION(_sk_bicubic_n3y_avx) _sk_bicubic_n3y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,118,57,0,0 // vbroadcastss 0x3976(%rip),%ymm1 # b294 <_sk_clut_4D_avx+0x25fd> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 196,98,125,24,5,108,57,0,0 // vbroadcastss 0x396c(%rip),%ymm8 # b298 <_sk_clut_4D_avx+0x2601> .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,93,57,0,0 // vbroadcastss 0x395d(%rip),%ymm10 # b29c <_sk_clut_4D_avx+0x2605> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 .byte 196,98,125,24,21,83,57,0,0 // vbroadcastss 0x3953(%rip),%ymm10 # b2a0 <_sk_clut_4D_avx+0x2609> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1y_avx .globl _sk_bicubic_n1y_avx FUNCTION(_sk_bicubic_n1y_avx) _sk_bicubic_n1y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,54,57,0,0 // vbroadcastss 0x3936(%rip),%ymm1 # b2a4 <_sk_clut_4D_avx+0x260d> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 196,98,125,24,5,44,57,0,0 // vbroadcastss 0x392c(%rip),%ymm8 # b2a8 <_sk_clut_4D_avx+0x2611> .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8 .byte 196,98,125,24,13,34,57,0,0 // vbroadcastss 0x3922(%rip),%ymm9 # b2ac <_sk_clut_4D_avx+0x2615> .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 .byte 196,98,125,24,21,24,57,0,0 // vbroadcastss 0x3918(%rip),%ymm10 # b2b0 <_sk_clut_4D_avx+0x2619> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 .byte 196,98,125,24,21,9,57,0,0 // vbroadcastss 0x3909(%rip),%ymm10 # b2b4 <_sk_clut_4D_avx+0x261d> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,13,250,56,0,0 // vbroadcastss 0x38fa(%rip),%ymm9 # b2b8 <_sk_clut_4D_avx+0x2621> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1y_avx .globl _sk_bicubic_p1y_avx FUNCTION(_sk_bicubic_p1y_avx) _sk_bicubic_p1y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,98,125,24,5,226,56,0,0 // vbroadcastss 0x38e2(%rip),%ymm8 # b2bc <_sk_clut_4D_avx+0x2625> .byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1 .byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9 .byte 196,98,125,24,21,211,56,0,0 // vbroadcastss 0x38d3(%rip),%ymm10 # b2c0 <_sk_clut_4D_avx+0x2629> .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,98,125,24,29,201,56,0,0 // vbroadcastss 0x38c9(%rip),%ymm11 # b2c4 <_sk_clut_4D_avx+0x262d> .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 196,98,125,24,13,176,56,0,0 // vbroadcastss 0x38b0(%rip),%ymm9 # b2c8 <_sk_clut_4D_avx+0x2631> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3y_avx .globl _sk_bicubic_p3y_avx FUNCTION(_sk_bicubic_p3y_avx) _sk_bicubic_p3y_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,13,152,56,0,0 // vbroadcastss 0x3898(%rip),%ymm1 # b2cc <_sk_clut_4D_avx+0x2635> .byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1 .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 .byte 196,98,125,24,21,132,56,0,0 // vbroadcastss 0x3884(%rip),%ymm10 # b2d0 <_sk_clut_4D_avx+0x2639> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 .byte 196,98,125,24,21,122,56,0,0 // vbroadcastss 0x387a(%rip),%ymm10 # b2d4 <_sk_clut_4D_avx+0x263d> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_callback_avx .globl _sk_callback_avx FUNCTION(_sk_callback_avx) _sk_callback_avx: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp .byte 72,129,236,192,0,0,0 // sub $0xc0,%rsp .byte 197,252,41,188,36,128,0,0,0 // vmovaps %ymm7,0x80(%rsp) .byte 197,252,41,116,36,96 // vmovaps %ymm6,0x60(%rsp) .byte 197,252,41,108,36,64 // vmovaps %ymm5,0x40(%rsp) .byte 197,252,41,100,36,32 // vmovaps %ymm4,0x20(%rsp) .byte 76,137,195 // mov %r8,%rbx .byte 72,137,76,36,24 // mov %rcx,0x18(%rsp) .byte 73,137,215 // mov %rdx,%r15 .byte 73,137,252 // mov %rdi,%r12 .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,198 // mov %rax,%r14 .byte 73,137,245 // mov %rsi,%r13 .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4 .byte 197,252,21,193 // vunpckhps %ymm1,%ymm0,%ymm0 .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1 .byte 197,236,21,211 // vunpckhps %ymm3,%ymm2,%ymm2 .byte 197,221,20,217 // vunpcklpd %ymm1,%ymm4,%ymm3 .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1 .byte 197,253,20,226 // vunpcklpd %ymm2,%ymm0,%ymm4 .byte 197,253,21,194 // vunpckhpd %ymm2,%ymm0,%ymm0 .byte 196,227,101,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm2 .byte 196,227,93,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm5 .byte 196,227,101,6,201,49 // vperm2f128 $0x31,%ymm1,%ymm3,%ymm1 .byte 196,227,93,6,192,49 // vperm2f128 $0x31,%ymm0,%ymm4,%ymm0 .byte 196,193,125,17,86,8 // vmovupd %ymm2,0x8(%r14) .byte 196,193,125,17,110,40 // vmovupd %ymm5,0x28(%r14) .byte 196,193,125,17,78,72 // vmovupd %ymm1,0x48(%r14) .byte 196,193,125,17,70,104 // vmovupd %ymm0,0x68(%r14) .byte 72,133,219 // test %rbx,%rbx .byte 190,8,0,0,0 // mov $0x8,%esi .byte 15,69,243 // cmovne %ebx,%esi .byte 76,137,247 // mov %r14,%rdi .byte 197,248,119 // vzeroupper .byte 65,255,22 // callq *(%r14) .byte 73,139,134,136,0,0,0 // mov 0x88(%r14),%rax .byte 197,248,16,0 // vmovups (%rax),%xmm0 .byte 197,248,16,72,16 // vmovups 0x10(%rax),%xmm1 .byte 197,248,16,80,32 // vmovups 0x20(%rax),%xmm2 .byte 197,248,16,88,48 // vmovups 0x30(%rax),%xmm3 .byte 196,227,101,24,88,112,1 // vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3 .byte 196,227,109,24,80,96,1 // vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2 .byte 196,227,117,24,72,80,1 // vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1 .byte 196,227,125,24,64,64,1 // vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0 .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4 .byte 197,252,21,233 // vunpckhps %ymm1,%ymm0,%ymm5 .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1 .byte 197,236,21,219 // vunpckhps %ymm3,%ymm2,%ymm3 .byte 197,221,20,193 // vunpcklpd %ymm1,%ymm4,%ymm0 .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1 .byte 197,213,20,211 // vunpcklpd %ymm3,%ymm5,%ymm2 .byte 197,213,21,219 // vunpckhpd %ymm3,%ymm5,%ymm3 .byte 76,137,238 // mov %r13,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,231 // mov %r12,%rdi .byte 76,137,250 // mov %r15,%rdx .byte 72,139,76,36,24 // mov 0x18(%rsp),%rcx .byte 73,137,216 // mov %rbx,%r8 .byte 197,252,40,100,36,32 // vmovaps 0x20(%rsp),%ymm4 .byte 197,252,40,108,36,64 // vmovaps 0x40(%rsp),%ymm5 .byte 197,252,40,116,36,96 // vmovaps 0x60(%rsp),%ymm6 .byte 197,252,40,188,36,128,0,0,0 // vmovaps 0x80(%rsp),%ymm7 .byte 72,141,101,216 // lea -0x28(%rbp),%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_3D_avx .globl _sk_clut_3D_avx FUNCTION(_sk_clut_3D_avx) _sk_clut_3D_avx: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,129,236,0,2,0,0 // sub $0x200,%rsp .byte 197,252,17,188,36,224,1,0,0 // vmovups %ymm7,0x1e0(%rsp) .byte 197,252,17,180,36,192,1,0,0 // vmovups %ymm6,0x1c0(%rsp) .byte 197,252,17,172,36,160,1,0,0 // vmovups %ymm5,0x1a0(%rsp) .byte 197,252,17,164,36,128,1,0,0 // vmovups %ymm4,0x180(%rsp) .byte 197,252,17,156,36,96,1,0,0 // vmovups %ymm3,0x160(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,218 // vmovd %r10d,%xmm3 .byte 197,249,112,219,0 // vpshufd $0x0,%xmm3,%xmm3 .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,252,17,148,36,0,1,0,0 // vmovups %ymm2,0x100(%rsp) .byte 197,254,91,218 // vcvttps2dq %ymm2,%ymm3 .byte 68,139,80,12 // mov 0xc(%rax),%r10d .byte 69,141,90,255 // lea -0x1(%r10),%r11d .byte 196,193,121,110,211 // vmovd %r11d,%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1 .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp) .byte 197,254,91,225 // vcvttps2dq %ymm1,%ymm4 .byte 196,193,121,110,201 // vmovd %r9d,%xmm1 .byte 197,121,112,233,0 // vpshufd $0x0,%xmm1,%xmm13 .byte 196,194,89,64,213 // vpmulld %xmm13,%xmm4,%xmm2 .byte 197,253,111,236 // vmovdqa %ymm4,%ymm5 .byte 197,254,127,108,36,96 // vmovdqu %ymm5,0x60(%rsp) .byte 197,249,127,148,36,160,0,0,0 // vmovdqa %xmm2,0xa0(%rsp) .byte 197,105,254,211 // vpaddd %xmm3,%xmm2,%xmm10 .byte 197,254,127,156,36,224,0,0,0 // vmovdqu %ymm3,0xe0(%rsp) .byte 196,193,121,110,210 // vmovd %r10d,%xmm2 .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1 .byte 197,121,112,241,0 // vpshufd $0x0,%xmm1,%xmm14 .byte 68,139,72,8 // mov 0x8(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 196,193,121,110,201 // vmovd %r9d,%xmm1 .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1 .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 197,116,89,192 // vmulps %ymm0,%ymm1,%ymm8 .byte 196,193,126,91,200 // vcvttps2dq %ymm8,%ymm1 .byte 196,194,113,64,198 // vpmulld %xmm14,%xmm1,%xmm0 .byte 197,253,111,241 // vmovdqa %ymm1,%ymm6 .byte 197,254,127,116,36,160 // vmovdqu %ymm6,-0x60(%rsp) .byte 197,249,127,68,36,224 // vmovdqa %xmm0,-0x20(%rsp) .byte 72,139,0 // mov (%rax),%rax .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0 .byte 196,98,121,24,29,18,54,0,0 // vbroadcastss 0x3612(%rip),%xmm11 # b2dc <_sk_clut_4D_avx+0x2645> .byte 196,194,121,64,203 // vpmulld %xmm11,%xmm0,%xmm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 196,195,249,22,203,1 // vpextrq $0x1,%xmm1,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,4,144 // vmovss (%rax,%r10,4),%xmm0 .byte 196,163,121,33,4,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm0,%xmm0 .byte 196,227,121,33,4,152,32 // vinsertps $0x20,(%rax,%rbx,4),%xmm0,%xmm0 .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2 .byte 196,227,121,33,226,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm4 .byte 196,227,125,25,232,1 // vextractf128 $0x1,%ymm5,%xmm0 .byte 196,194,121,64,213 // vpmulld %xmm13,%xmm0,%xmm2 .byte 197,249,127,148,36,128,0,0,0 // vmovdqa %xmm2,0x80(%rsp) .byte 196,227,125,25,240,1 // vextractf128 $0x1,%ymm6,%xmm0 .byte 196,194,121,64,238 // vpmulld %xmm14,%xmm0,%xmm5 .byte 197,249,127,108,36,208 // vmovdqa %xmm5,-0x30(%rsp) .byte 196,227,125,25,216,1 // vextractf128 $0x1,%ymm3,%xmm0 .byte 197,248,41,68,36,128 // vmovaps %xmm0,-0x80(%rsp) .byte 197,233,254,192 // vpaddd %xmm0,%xmm2,%xmm0 .byte 197,209,254,208 // vpaddd %xmm0,%xmm5,%xmm2 .byte 196,194,105,64,211 // vpmulld %xmm11,%xmm2,%xmm2 .byte 197,249,126,211 // vmovd %xmm2,%ebx .byte 196,195,121,22,209,1 // vpextrd $0x1,%xmm2,%r9d .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7 .byte 196,163,65,33,60,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7 .byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,227,93,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm3 .byte 197,252,17,92,36,64 // vmovups %ymm3,0x40(%rsp) .byte 196,98,121,24,13,85,53,0,0 // vbroadcastss 0x3555(%rip),%xmm9 # b2e0 <_sk_clut_4D_avx+0x2649> .byte 196,193,105,254,249 // vpaddd %xmm9,%xmm2,%xmm7 .byte 196,195,249,22,249,1 // vpextrq $0x1,%xmm7,%r9 .byte 196,193,249,126,250 // vmovq %xmm7,%r10 .byte 196,193,113,254,249 // vpaddd %xmm9,%xmm1,%xmm7 .byte 196,225,249,126,251 // vmovq %xmm7,%rbx .byte 196,195,249,22,251,1 // vpextrq $0x1,%xmm7,%r11 .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7 .byte 196,163,65,33,60,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm7,%xmm7 .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6 .byte 196,227,65,33,246,32 // vinsertps $0x20,%xmm6,%xmm7,%xmm6 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 65,137,217 // mov %ebx,%r9d .byte 69,137,218 // mov %r11d,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,65,33,60,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm7,%xmm7 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,65,33,237,32 // vinsertps $0x20,%xmm5,%xmm7,%xmm5 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,152 // vmovss (%rax,%r11,4),%xmm7 .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5 .byte 196,99,85,24,254,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm15 .byte 196,98,121,24,37,196,52,0,0 // vbroadcastss 0x34c4(%rip),%xmm12 # b2e4 <_sk_clut_4D_avx+0x264d> .byte 196,193,105,254,212 // vpaddd %xmm12,%xmm2,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,113,254,204 // vpaddd %xmm12,%xmm1,%xmm1 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,105,33,213,32 // vinsertps $0x20,%xmm5,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5 .byte 196,227,105,33,213,48 // vinsertps $0x30,%xmm5,%xmm2,%xmm2 .byte 196,227,109,24,225,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm4 .byte 196,226,125,24,13,36,52,0,0 // vbroadcastss 0x3424(%rip),%ymm1 # b2d8 <_sk_clut_4D_avx+0x2641> .byte 197,188,88,209 // vaddps %ymm1,%ymm8,%ymm2 .byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp) .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2 .byte 196,227,125,25,213,1 // vextractf128 $0x1,%ymm2,%xmm5 .byte 196,194,81,64,222 // vpmulld %xmm14,%xmm5,%xmm3 .byte 197,249,127,92,36,240 // vmovdqa %xmm3,-0x10(%rsp) .byte 196,194,105,64,214 // vpmulld %xmm14,%xmm2,%xmm2 .byte 197,249,127,84,36,192 // vmovdqa %xmm2,-0x40(%rsp) .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2 .byte 196,194,105,64,235 // vpmulld %xmm11,%xmm2,%xmm5 .byte 196,193,249,126,234 // vmovq %xmm5,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,235,1 // vpextrq $0x1,%xmm5,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm2,%xmm2 .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2 .byte 197,225,254,192 // vpaddd %xmm0,%xmm3,%xmm0 .byte 196,194,121,64,195 // vpmulld %xmm11,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6 .byte 196,163,73,33,52,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6 .byte 196,163,73,33,52,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6 .byte 196,227,109,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm2,%ymm2 .byte 196,193,121,254,241 // vpaddd %xmm9,%xmm0,%xmm6 .byte 196,195,249,22,241,1 // vpextrq $0x1,%xmm6,%r9 .byte 196,193,249,126,242 // vmovq %xmm6,%r10 .byte 196,193,81,254,241 // vpaddd %xmm9,%xmm5,%xmm6 .byte 196,193,249,126,243 // vmovq %xmm6,%r11 .byte 196,227,249,22,243,1 // vpextrq $0x1,%xmm6,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6 .byte 196,163,73,33,52,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm6,%xmm6 .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7 .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,163,65,33,60,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,65,33,219,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,97,33,223,48 // vinsertps $0x30,%xmm7,%xmm3,%xmm3 .byte 196,99,101,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm3,%ymm10 .byte 196,193,121,254,196 // vpaddd %xmm12,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,81,254,196 // vpaddd %xmm12,%xmm5,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5 .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3 .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0 .byte 197,252,91,92,36,160 // vcvtdq2ps -0x60(%rsp),%ymm3 .byte 197,60,92,243 // vsubps %ymm3,%ymm8,%ymm14 .byte 197,252,16,92,36,64 // vmovups 0x40(%rsp),%ymm3 .byte 197,236,92,211 // vsubps %ymm3,%ymm2,%ymm2 .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2 .byte 197,228,88,210 // vaddps %ymm2,%ymm3,%ymm2 .byte 197,252,17,84,36,160 // vmovups %ymm2,-0x60(%rsp) .byte 196,193,44,92,215 // vsubps %ymm15,%ymm10,%ymm2 .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2 .byte 197,132,88,210 // vaddps %ymm2,%ymm15,%ymm2 .byte 197,252,17,148,36,64,1,0,0 // vmovups %ymm2,0x140(%rsp) .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0 .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0 .byte 197,252,17,132,36,32,1,0,0 // vmovups %ymm0,0x120(%rsp) .byte 197,244,88,4,36 // vaddps (%rsp),%ymm1,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 196,194,121,64,205 // vpmulld %xmm13,%xmm0,%xmm1 .byte 197,249,127,76,36,64 // vmovdqa %xmm1,0x40(%rsp) .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0 .byte 196,194,121,64,213 // vpmulld %xmm13,%xmm0,%xmm2 .byte 197,249,127,148,36,208,0,0,0 // vmovdqa %xmm2,0xd0(%rsp) .byte 197,241,254,180,36,224,0,0,0 // vpaddd 0xe0(%rsp),%xmm1,%xmm6 .byte 197,249,111,100,36,224 // vmovdqa -0x20(%rsp),%xmm4 .byte 197,201,254,196 // vpaddd %xmm4,%xmm6,%xmm0 .byte 196,194,121,64,235 // vpmulld %xmm11,%xmm0,%xmm5 .byte 196,193,249,126,234 // vmovq %xmm5,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,235,1 // vpextrq $0x1,%xmm5,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,227,121,33,201,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm1 .byte 197,233,254,124,36,128 // vpaddd -0x80(%rsp),%xmm2,%xmm7 .byte 197,121,111,108,36,208 // vmovdqa -0x30(%rsp),%xmm13 .byte 196,193,65,254,197 // vpaddd %xmm13,%xmm7,%xmm0 .byte 196,194,121,64,195 // vpmulld %xmm11,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2 .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp) .byte 196,193,121,254,201 // vpaddd %xmm9,%xmm0,%xmm1 .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 196,193,81,254,201 // vpaddd %xmm9,%xmm5,%xmm1 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,99,109,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm10 .byte 196,193,121,254,196 // vpaddd %xmm12,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,81,254,196 // vpaddd %xmm12,%xmm5,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,227,109,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm5 .byte 197,121,111,124,36,192 // vmovdqa -0x40(%rsp),%xmm15 .byte 197,129,254,198 // vpaddd %xmm6,%xmm15,%xmm0 .byte 196,194,121,64,243 // vpmulld %xmm11,%xmm0,%xmm6 .byte 196,193,249,126,242 // vmovq %xmm6,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,243,1 // vpextrq $0x1,%xmm6,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,227,121,33,210,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm2 .byte 197,193,254,68,36,240 // vpaddd -0x10(%rsp),%xmm7,%xmm0 .byte 196,194,121,64,195 // vpmulld %xmm11,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3 .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,227,109,24,251,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm7 .byte 196,193,121,254,209 // vpaddd %xmm9,%xmm0,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,73,254,209 // vpaddd %xmm9,%xmm6,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,12,144 // vmovss (%rax,%r10,4),%xmm1 .byte 196,227,97,33,201,32 // vinsertps $0x20,%xmm1,%xmm3,%xmm1 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1 .byte 196,99,117,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm8 .byte 196,193,121,254,196 // vpaddd %xmm12,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,73,254,196 // vpaddd %xmm12,%xmm6,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1 .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,163,113,33,12,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2 .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,16,84,36,128 // vmovups -0x80(%rsp),%ymm2 .byte 197,196,92,202 // vsubps %ymm2,%ymm7,%ymm1 .byte 197,140,89,201 // vmulps %ymm1,%ymm14,%ymm1 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 196,193,60,92,210 // vsubps %ymm10,%ymm8,%ymm2 .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2 .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2 .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0 .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0 .byte 197,212,88,192 // vaddps %ymm0,%ymm5,%ymm0 .byte 197,252,91,92,36,96 // vcvtdq2ps 0x60(%rsp),%ymm3 .byte 197,252,16,44,36 // vmovups (%rsp),%ymm5 .byte 197,212,92,219 // vsubps %ymm3,%ymm5,%ymm3 .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp) .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,212,88,201 // vaddps %ymm1,%ymm5,%ymm1 .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp) .byte 197,252,16,172,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm5 .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,212,88,201 // vaddps %ymm1,%ymm5,%ymm1 .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp) .byte 197,252,16,140,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm1 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp) .byte 197,252,16,68,36,32 // vmovups 0x20(%rsp),%ymm0 .byte 197,252,88,132,36,0,1,0,0 // vaddps 0x100(%rsp),%ymm0,%ymm0 .byte 197,126,91,192 // vcvttps2dq %ymm0,%ymm8 .byte 197,185,254,188,36,160,0,0,0 // vpaddd 0xa0(%rsp),%xmm8,%xmm7 .byte 197,217,254,199 // vpaddd %xmm7,%xmm4,%xmm0 .byte 196,194,121,64,243 // vpmulld %xmm11,%xmm0,%xmm6 .byte 196,193,249,126,242 // vmovq %xmm6,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,243,1 // vpextrq $0x1,%xmm6,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,227,121,33,217,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm3 .byte 196,99,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm0 .byte 197,248,41,68,36,32 // vmovaps %xmm0,0x20(%rsp) .byte 197,249,254,140,36,128,0,0,0 // vpaddd 0x80(%rsp),%xmm0,%xmm1 .byte 197,145,254,193 // vpaddd %xmm1,%xmm13,%xmm0 .byte 196,194,121,64,195 // vpmulld %xmm11,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2 .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,227,101,24,226,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm4 .byte 196,193,121,254,209 // vpaddd %xmm9,%xmm0,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,73,254,209 // vpaddd %xmm9,%xmm6,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5 .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3 .byte 196,99,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm10 .byte 196,193,121,254,196 // vpaddd %xmm12,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,73,254,196 // vpaddd %xmm12,%xmm6,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,99,109,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm13 .byte 197,129,254,199 // vpaddd %xmm7,%xmm15,%xmm0 .byte 196,194,121,64,243 // vpmulld %xmm11,%xmm0,%xmm6 .byte 196,193,249,126,242 // vmovq %xmm6,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,243,1 // vpextrq $0x1,%xmm6,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 197,121,111,124,36,240 // vmovdqa -0x10(%rsp),%xmm15 .byte 197,129,254,201 // vpaddd %xmm1,%xmm15,%xmm1 .byte 196,194,113,64,251 // vpmulld %xmm11,%xmm1,%xmm7 .byte 197,249,126,251 // vmovd %xmm7,%ebx .byte 196,195,121,22,249,1 // vpextrd $0x1,%xmm7,%r9d .byte 196,195,121,22,250,2 // vpextrd $0x2,%xmm7,%r10d .byte 196,195,121,22,251,3 // vpextrd $0x3,%xmm7,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,125,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm1 .byte 196,193,65,254,193 // vpaddd %xmm9,%xmm7,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,73,254,193 // vpaddd %xmm9,%xmm6,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0 .byte 196,193,65,254,212 // vpaddd %xmm12,%xmm7,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,73,254,212 // vpaddd %xmm12,%xmm6,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5 .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3 .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 197,140,89,201 // vmulps %ymm1,%ymm14,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp) .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0 .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0 .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp) .byte 196,193,108,92,197 // vsubps %ymm13,%ymm2,%ymm0 .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0 .byte 197,20,88,208 // vaddps %ymm0,%ymm13,%ymm10 .byte 197,249,111,68,36,32 // vmovdqa 0x20(%rsp),%xmm0 .byte 197,249,254,180,36,208,0,0,0 // vpaddd 0xd0(%rsp),%xmm0,%xmm6 .byte 197,185,254,68,36,64 // vpaddd 0x40(%rsp),%xmm8,%xmm0 .byte 197,249,254,76,36,224 // vpaddd -0x20(%rsp),%xmm0,%xmm1 .byte 196,66,113,64,235 // vpmulld %xmm11,%xmm1,%xmm13 .byte 196,65,249,126,234 // vmovq %xmm13,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,99,249,22,235,1 // vpextrq $0x1,%xmm13,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm1,%xmm1 .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 197,201,254,84,36,208 // vpaddd -0x30(%rsp),%xmm6,%xmm2 .byte 196,194,105,64,211 // vpmulld %xmm11,%xmm2,%xmm2 .byte 197,249,126,211 // vmovd %xmm2,%ebx .byte 196,195,121,22,209,1 // vpextrd $0x1,%xmm2,%r9d .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3 .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,227,117,24,203,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm1 .byte 196,193,105,254,217 // vpaddd %xmm9,%xmm2,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,17,254,217 // vpaddd %xmm9,%xmm13,%xmm3 .byte 196,193,249,126,219 // vmovq %xmm3,%r11 .byte 196,227,249,22,219,1 // vpextrq $0x1,%xmm3,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3 .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,161,122,16,44,184 // vmovss (%rax,%r15,4),%xmm5 .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,44,136 // vmovss (%rax,%r9,4),%xmm5 .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,44,136 // vmovss (%rax,%r9,4),%xmm5 .byte 196,163,81,33,44,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm5,%xmm5 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,81,33,239,32 // vinsertps $0x20,%xmm7,%xmm5,%xmm5 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5 .byte 196,227,85,24,235,1 // vinsertf128 $0x1,%xmm3,%ymm5,%ymm5 .byte 196,193,105,254,212 // vpaddd %xmm12,%xmm2,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,17,254,212 // vpaddd %xmm12,%xmm13,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,97,33,223,32 // vinsertps $0x20,%xmm7,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,97,33,223,48 // vinsertps $0x30,%xmm7,%xmm3,%xmm3 .byte 196,99,101,24,234,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm13 .byte 197,249,254,68,36,192 // vpaddd -0x40(%rsp),%xmm0,%xmm0 .byte 197,129,254,214 // vpaddd %xmm6,%xmm15,%xmm2 .byte 196,194,105,64,243 // vpmulld %xmm11,%xmm2,%xmm6 .byte 196,194,121,64,195 // vpmulld %xmm11,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm2,%xmm2 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 197,249,126,243 // vmovd %xmm6,%ebx .byte 196,195,121,22,241,1 // vpextrd $0x1,%xmm6,%r9d .byte 196,195,121,22,242,2 // vpextrd $0x2,%xmm6,%r10d .byte 196,195,121,22,243,3 // vpextrd $0x3,%xmm6,%r11d .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3 .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,227,109,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm3 .byte 196,193,73,254,209 // vpaddd %xmm9,%xmm6,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,121,254,209 // vpaddd %xmm9,%xmm0,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,105,33,212,32 // vinsertps $0x20,%xmm4,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,105,33,212,48 // vinsertps $0x30,%xmm4,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2 .byte 196,193,73,254,228 // vpaddd %xmm12,%xmm6,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,121,254,196 // vpaddd %xmm12,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,195,249,22,199,1 // vpextrq $0x1,%xmm0,%r15 .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 68,137,203 // mov %r9d,%ebx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,121,33,196,32 // vinsertps $0x20,%xmm4,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,121,33,196,48 // vinsertps $0x30,%xmm4,%xmm0,%xmm0 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 68,137,251 // mov %r15d,%ebx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 73,193,239,32 // shr $0x20,%r15 .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 196,227,93,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm0 .byte 197,228,92,217 // vsubps %ymm1,%ymm3,%ymm3 .byte 197,140,89,219 // vmulps %ymm3,%ymm14,%ymm3 .byte 197,244,88,203 // vaddps %ymm3,%ymm1,%ymm1 .byte 197,236,92,213 // vsubps %ymm5,%ymm2,%ymm2 .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2 .byte 197,212,88,210 // vaddps %ymm2,%ymm5,%ymm2 .byte 196,193,124,92,197 // vsubps %ymm13,%ymm0,%ymm0 .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0 .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0 .byte 197,252,16,164,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm4 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 197,252,16,92,36,128 // vmovups -0x80(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm4 .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,172,88,216 // vaddps %ymm0,%ymm10,%ymm3 .byte 197,252,91,132,36,224,0,0,0 // vcvtdq2ps 0xe0(%rsp),%ymm0 .byte 197,252,16,164,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm4 .byte 197,220,92,224 // vsubps %ymm0,%ymm4,%ymm4 .byte 197,252,16,44,36 // vmovups (%rsp),%ymm5 .byte 197,244,92,197 // vsubps %ymm5,%ymm1,%ymm0 .byte 197,220,89,192 // vmulps %ymm0,%ymm4,%ymm0 .byte 197,212,88,192 // vaddps %ymm0,%ymm5,%ymm0 .byte 197,252,16,108,36,96 // vmovups 0x60(%rsp),%ymm5 .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1 .byte 197,220,89,201 // vmulps %ymm1,%ymm4,%ymm1 .byte 197,212,88,201 // vaddps %ymm1,%ymm5,%ymm1 .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5 .byte 197,228,92,213 // vsubps %ymm5,%ymm3,%ymm2 .byte 197,220,89,210 // vmulps %ymm2,%ymm4,%ymm2 .byte 197,212,88,210 // vaddps %ymm2,%ymm5,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,156,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm3 .byte 197,252,16,164,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm4 .byte 197,252,16,172,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm5 .byte 197,252,16,180,36,192,1,0,0 // vmovups 0x1c0(%rsp),%ymm6 .byte 197,252,16,188,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm7 .byte 72,129,196,0,2,0,0 // add $0x200,%rsp .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_4D_avx .globl _sk_clut_4D_avx FUNCTION(_sk_clut_4D_avx) _sk_clut_4D_avx: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,129,236,160,2,0,0 // sub $0x2a0,%rsp .byte 197,252,17,188,36,128,2,0,0 // vmovups %ymm7,0x280(%rsp) .byte 197,252,17,180,36,96,2,0,0 // vmovups %ymm6,0x260(%rsp) .byte 197,252,17,172,36,64,2,0,0 // vmovups %ymm5,0x240(%rsp) .byte 197,252,17,164,36,32,2,0,0 // vmovups %ymm4,0x220(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,20 // mov 0x14(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,226 // vmovd %r10d,%xmm4 .byte 197,249,112,228,0 // vpshufd $0x0,%xmm4,%xmm4 .byte 196,227,93,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 197,220,89,219 // vmulps %ymm3,%ymm4,%ymm3 .byte 197,252,17,156,36,0,2,0,0 // vmovups %ymm3,0x200(%rsp) .byte 197,254,91,227 // vcvttps2dq %ymm3,%ymm4 .byte 68,139,80,16 // mov 0x10(%rax),%r10d .byte 69,141,90,255 // lea -0x1(%r10),%r11d .byte 196,193,121,110,219 // vmovd %r11d,%xmm3 .byte 197,249,112,219,0 // vpshufd $0x0,%xmm3,%xmm3 .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp) .byte 197,254,91,234 // vcvttps2dq %ymm2,%ymm5 .byte 196,193,121,110,209 // vmovd %r9d,%xmm2 .byte 197,249,112,242,0 // vpshufd $0x0,%xmm2,%xmm6 .byte 196,226,81,64,222 // vpmulld %xmm6,%xmm5,%xmm3 .byte 197,249,111,254 // vmovdqa %xmm6,%xmm7 .byte 197,249,127,124,36,224 // vmovdqa %xmm7,-0x20(%rsp) .byte 197,254,127,172,36,128,1,0,0 // vmovdqu %ymm5,0x180(%rsp) .byte 197,249,127,156,36,192,0,0,0 // vmovdqa %xmm3,0xc0(%rsp) .byte 197,225,254,244 // vpaddd %xmm4,%xmm3,%xmm6 .byte 197,249,127,116,36,96 // vmovdqa %xmm6,0x60(%rsp) .byte 197,254,127,164,36,224,1,0,0 // vmovdqu %ymm4,0x1e0(%rsp) .byte 196,193,121,110,218 // vmovd %r10d,%xmm3 .byte 196,226,97,64,210 // vpmulld %xmm2,%xmm3,%xmm2 .byte 197,121,112,194,0 // vpshufd $0x0,%xmm2,%xmm8 .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 196,193,121,110,218 // vmovd %r10d,%xmm3 .byte 197,249,112,219,0 // vpshufd $0x0,%xmm3,%xmm3 .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3 .byte 197,252,17,156,36,128,0,0,0 // vmovups %ymm3,0x80(%rsp) .byte 196,193,121,110,201 // vmovd %r9d,%xmm1 .byte 196,226,113,64,202 // vpmulld %xmm2,%xmm1,%xmm1 .byte 68,139,72,8 // mov 0x8(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 196,193,121,110,209 // vmovd %r9d,%xmm2 .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2 .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 197,108,89,232 // vmulps %ymm0,%ymm2,%ymm13 .byte 197,254,91,211 // vcvttps2dq %ymm3,%ymm2 .byte 197,249,112,193,0 // vpshufd $0x0,%xmm1,%xmm0 .byte 72,139,0 // mov (%rax),%rax .byte 196,194,105,64,200 // vpmulld %xmm8,%xmm2,%xmm1 .byte 197,125,111,210 // vmovdqa %ymm2,%ymm10 .byte 197,126,127,148,36,224,0,0,0 // vmovdqu %ymm10,0xe0(%rsp) .byte 197,249,127,140,36,0,1,0,0 // vmovdqa %xmm1,0x100(%rsp) .byte 197,241,254,214 // vpaddd %xmm6,%xmm1,%xmm2 .byte 196,65,126,91,229 // vcvttps2dq %ymm13,%ymm12 .byte 196,226,25,64,200 // vpmulld %xmm0,%xmm12,%xmm1 .byte 197,249,127,76,36,128 // vmovdqa %xmm1,-0x80(%rsp) .byte 197,241,254,202 // vpaddd %xmm2,%xmm1,%xmm1 .byte 196,98,121,24,61,226,36,0,0 // vbroadcastss 0x24e2(%rip),%xmm15 # b2ec <_sk_clut_4D_avx+0x2655> .byte 196,194,113,64,247 // vpmulld %xmm15,%xmm1,%xmm6 .byte 196,193,249,126,241 // vmovq %xmm6,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 196,195,249,22,243,1 // vpextrq $0x1,%xmm6,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,12,144 // vmovss (%rax,%r10,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,227,113,33,12,152,32 // vinsertps $0x20,(%rax,%rbx,4),%xmm1,%xmm1 .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3 .byte 196,99,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm9 .byte 196,227,125,25,233,1 // vextractf128 $0x1,%ymm5,%xmm1 .byte 196,226,113,64,239 // vpmulld %xmm7,%xmm1,%xmm5 .byte 197,249,127,172,36,160,0,0,0 // vmovdqa %xmm5,0xa0(%rsp) .byte 196,99,125,25,209,1 // vextractf128 $0x1,%ymm10,%xmm1 .byte 196,194,113,64,216 // vpmulld %xmm8,%xmm1,%xmm3 .byte 197,249,127,92,36,16 // vmovdqa %xmm3,0x10(%rsp) .byte 196,99,125,25,225,1 // vextractf128 $0x1,%ymm12,%xmm1 .byte 196,226,113,64,248 // vpmulld %xmm0,%xmm1,%xmm7 .byte 197,249,127,124,36,176 // vmovdqa %xmm7,-0x50(%rsp) .byte 196,227,125,25,225,1 // vextractf128 $0x1,%ymm4,%xmm1 .byte 197,248,41,76,36,192 // vmovaps %xmm1,-0x40(%rsp) .byte 197,209,254,201 // vpaddd %xmm1,%xmm5,%xmm1 .byte 197,249,127,140,36,64,1,0,0 // vmovdqa %xmm1,0x140(%rsp) .byte 197,225,254,201 // vpaddd %xmm1,%xmm3,%xmm1 .byte 197,193,254,217 // vpaddd %xmm1,%xmm7,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7 .byte 196,163,65,33,60,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7 .byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,99,53,24,247,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm14 .byte 196,98,121,24,21,13,36,0,0 // vbroadcastss 0x240d(%rip),%xmm10 # b2f0 <_sk_clut_4D_avx+0x2659> .byte 196,65,97,254,202 // vpaddd %xmm10,%xmm3,%xmm9 .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 .byte 196,65,249,126,202 // vmovq %xmm9,%r10 .byte 196,65,73,254,202 // vpaddd %xmm10,%xmm6,%xmm9 .byte 196,97,249,126,203 // vmovq %xmm9,%rbx .byte 196,67,249,22,203,1 // vpextrq $0x1,%xmm9,%r11 .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7 .byte 196,163,65,33,60,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm7,%xmm7 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,65,33,228,32 // vinsertps $0x20,%xmm4,%xmm7,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 65,137,217 // mov %ebx,%r9d .byte 69,137,218 // mov %r11d,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,65,33,60,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm7,%xmm7 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,65,33,237,32 // vinsertps $0x20,%xmm5,%xmm7,%xmm5 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,152 // vmovss (%rax,%r11,4),%xmm7 .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5 .byte 196,99,85,24,220,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm11 .byte 196,98,121,24,13,124,35,0,0 // vbroadcastss 0x237c(%rip),%xmm9 # b2f4 <_sk_clut_4D_avx+0x265d> .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,73,254,217 // vpaddd %xmm9,%xmm6,%xmm3 .byte 196,193,249,126,219 // vmovq %xmm3,%r11 .byte 196,227,249,22,219,1 // vpextrq $0x1,%xmm3,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3 .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,89,33,229,32 // vinsertps $0x20,%xmm5,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5 .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4 .byte 196,227,93,24,243,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm6 .byte 196,226,125,24,37,220,34,0,0 // vbroadcastss 0x22dc(%rip),%ymm4 # b2e8 <_sk_clut_4D_avx+0x2651> .byte 197,148,88,220 // vaddps %ymm4,%ymm13,%ymm3 .byte 197,252,40,252 // vmovaps %ymm4,%ymm7 .byte 197,252,17,124,36,32 // vmovups %ymm7,0x20(%rsp) .byte 197,254,91,219 // vcvttps2dq %ymm3,%ymm3 .byte 196,227,125,25,220,1 // vextractf128 $0x1,%ymm3,%xmm4 .byte 196,226,89,64,224 // vpmulld %xmm0,%xmm4,%xmm4 .byte 197,249,127,100,36,160 // vmovdqa %xmm4,-0x60(%rsp) .byte 196,226,97,64,192 // vpmulld %xmm0,%xmm3,%xmm0 .byte 197,249,127,68,36,144 // vmovdqa %xmm0,-0x70(%rsp) .byte 197,249,254,194 // vpaddd %xmm2,%xmm0,%xmm0 .byte 196,194,121,64,215 // vpmulld %xmm15,%xmm0,%xmm2 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,121,33,219,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm3 .byte 197,217,254,193 // vpaddd %xmm1,%xmm4,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,101,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm3 .byte 196,193,121,254,202 // vpaddd %xmm10,%xmm0,%xmm1 .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 196,193,105,254,202 // vpaddd %xmm10,%xmm2,%xmm1 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,113,33,204,32 // vinsertps $0x20,%xmm4,%xmm1,%xmm1 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,113,33,204,48 // vinsertps $0x30,%xmm4,%xmm1,%xmm1 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5 .byte 196,227,89,33,229,32 // vinsertps $0x20,%xmm5,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5 .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4 .byte 196,227,93,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm4,%ymm1 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,193 // vpaddd %xmm9,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,105,33,212,32 // vinsertps $0x20,%xmm4,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,105,33,212,48 // vinsertps $0x30,%xmm4,%xmm2,%xmm2 .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0 .byte 196,193,124,91,212 // vcvtdq2ps %ymm12,%ymm2 .byte 197,148,92,234 // vsubps %ymm2,%ymm13,%ymm5 .byte 196,193,100,92,214 // vsubps %ymm14,%ymm3,%ymm2 .byte 197,212,89,210 // vmulps %ymm2,%ymm5,%ymm2 .byte 197,12,88,234 // vaddps %ymm2,%ymm14,%ymm13 .byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1 .byte 197,212,89,201 // vmulps %ymm1,%ymm5,%ymm1 .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1 .byte 197,252,17,140,36,96,1,0,0 // vmovups %ymm1,0x160(%rsp) .byte 197,252,92,198 // vsubps %ymm6,%ymm0,%ymm0 .byte 197,212,89,192 // vmulps %ymm0,%ymm5,%ymm0 .byte 197,204,88,192 // vaddps %ymm0,%ymm6,%ymm0 .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp) .byte 197,124,16,156,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm11 .byte 197,164,88,199 // vaddps %ymm7,%ymm11,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 196,194,121,64,200 // vpmulld %xmm8,%xmm0,%xmm1 .byte 197,249,127,12,36 // vmovdqa %xmm1,(%rsp) .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0 .byte 196,194,121,64,216 // vpmulld %xmm8,%xmm0,%xmm3 .byte 197,249,127,92,36,240 // vmovdqa %xmm3,-0x10(%rsp) .byte 197,241,254,124,36,96 // vpaddd 0x60(%rsp),%xmm1,%xmm7 .byte 197,193,254,68,36,128 // vpaddd -0x80(%rsp),%xmm7,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm1,%xmm1 .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 197,225,254,148,36,64,1,0,0 // vpaddd 0x140(%rsp),%xmm3,%xmm2 .byte 197,233,254,92,36,176 // vpaddd -0x50(%rsp),%xmm2,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4 .byte 196,163,89,33,36,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,163,89,33,36,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,99,117,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm1,%ymm12 .byte 196,193,97,254,202 // vpaddd %xmm10,%xmm3,%xmm1 .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 196,193,121,254,202 // vpaddd %xmm10,%xmm0,%xmm1 .byte 196,193,249,126,203 // vmovq %xmm1,%r11 .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,113,33,204,32 // vinsertps $0x20,%xmm4,%xmm1,%xmm1 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,113,33,204,48 // vinsertps $0x30,%xmm4,%xmm1,%xmm1 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 196,227,93,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm4,%ymm1 .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,99,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm8 .byte 197,121,111,116,36,144 // vmovdqa -0x70(%rsp),%xmm14 .byte 197,137,254,199 // vpaddd %xmm7,%xmm14,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,163,97,33,28,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm3,%xmm3 .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,228,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm4 .byte 197,233,254,84,36,160 // vpaddd -0x60(%rsp),%xmm2,%xmm2 .byte 196,194,105,64,223 // vpmulld %xmm15,%xmm2,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2 .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2 .byte 196,193,97,254,226 // vpaddd %xmm10,%xmm3,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,121,254,226 // vpaddd %xmm10,%xmm0,%xmm4 .byte 196,193,249,126,227 // vmovq %xmm4,%r11 .byte 196,227,249,22,227,1 // vpextrq $0x1,%xmm4,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4 .byte 196,163,89,33,36,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,163,73,33,52,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm6,%xmm6 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,227,77,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm6,%ymm7 .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0 .byte 196,193,108,92,212 // vsubps %ymm12,%ymm2,%ymm2 .byte 197,212,89,210 // vmulps %ymm2,%ymm5,%ymm2 .byte 197,156,88,210 // vaddps %ymm2,%ymm12,%ymm2 .byte 197,196,92,217 // vsubps %ymm1,%ymm7,%ymm3 .byte 197,212,89,219 // vmulps %ymm3,%ymm5,%ymm3 .byte 197,244,88,203 // vaddps %ymm3,%ymm1,%ymm1 .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 197,212,89,192 // vmulps %ymm0,%ymm5,%ymm0 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 197,252,91,156,36,224,0,0,0 // vcvtdq2ps 0xe0(%rsp),%ymm3 .byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3 .byte 197,252,17,156,36,224,0,0,0 // vmovups %ymm3,0xe0(%rsp) .byte 196,193,108,92,213 // vsubps %ymm13,%ymm2,%ymm2 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2 .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp) .byte 197,252,16,148,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm2 .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp) .byte 197,252,16,76,36,64 // vmovups 0x40(%rsp),%ymm1 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp) .byte 197,252,16,68,36,32 // vmovups 0x20(%rsp),%ymm0 .byte 197,252,88,132,36,32,1,0,0 // vaddps 0x120(%rsp),%ymm0,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1 .byte 197,249,111,84,36,224 // vmovdqa -0x20(%rsp),%xmm2 .byte 196,226,113,64,218 // vpmulld %xmm2,%xmm1,%xmm3 .byte 197,249,127,156,36,96,1,0,0 // vmovdqa %xmm3,0x160(%rsp) .byte 196,226,121,64,194 // vpmulld %xmm2,%xmm0,%xmm0 .byte 197,249,127,68,36,224 // vmovdqa %xmm0,-0x20(%rsp) .byte 197,249,254,132,36,224,1,0,0 // vpaddd 0x1e0(%rsp),%xmm0,%xmm0 .byte 197,249,127,132,36,208,1,0,0 // vmovdqa %xmm0,0x1d0(%rsp) .byte 197,249,254,148,36,0,1,0,0 // vpaddd 0x100(%rsp),%xmm0,%xmm2 .byte 197,233,254,68,36,128 // vpaddd -0x80(%rsp),%xmm2,%xmm0 .byte 196,194,121,64,247 // vpmulld %xmm15,%xmm0,%xmm6 .byte 196,193,249,126,242 // vmovq %xmm6,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,243,1 // vpextrq $0x1,%xmm6,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,227,121,33,225,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm4 .byte 197,225,254,68,36,192 // vpaddd -0x40(%rsp),%xmm3,%xmm0 .byte 197,249,127,132,36,192,1,0,0 // vmovdqa %xmm0,0x1c0(%rsp) .byte 197,249,254,76,36,16 // vpaddd 0x10(%rsp),%xmm0,%xmm1 .byte 197,121,111,108,36,176 // vmovdqa -0x50(%rsp),%xmm13 .byte 196,193,113,254,221 // vpaddd %xmm13,%xmm1,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7 .byte 196,163,65,33,60,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7 .byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,227,93,24,199,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm0 .byte 197,252,17,68,36,192 // vmovups %ymm0,-0x40(%rsp) .byte 196,193,97,254,250 // vpaddd %xmm10,%xmm3,%xmm7 .byte 196,195,249,22,249,1 // vpextrq $0x1,%xmm7,%r9 .byte 196,193,249,126,250 // vmovq %xmm7,%r10 .byte 196,193,73,254,250 // vpaddd %xmm10,%xmm6,%xmm7 .byte 196,193,249,126,251 // vmovq %xmm7,%r11 .byte 196,227,249,22,251,1 // vpextrq $0x1,%xmm7,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7 .byte 196,163,65,33,60,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm7,%xmm7 .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0 .byte 196,227,65,33,192,32 // vinsertps $0x20,%xmm0,%xmm7,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,121,33,199,48 // vinsertps $0x30,%xmm7,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,163,65,33,60,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,65,33,228,32 // vinsertps $0x20,%xmm4,%xmm7,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 196,99,93,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm8 .byte 196,193,97,254,193 // vpaddd %xmm9,%xmm3,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,73,254,193 // vpaddd %xmm9,%xmm6,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,99,101,24,224,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm12 .byte 197,137,254,194 // vpaddd %xmm2,%xmm14,%xmm0 .byte 196,194,121,64,215 // vpmulld %xmm15,%xmm0,%xmm2 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 197,121,111,92,36,160 // vmovdqa -0x60(%rsp),%xmm11 .byte 197,161,254,201 // vpaddd %xmm1,%xmm11,%xmm1 .byte 196,194,113,64,223 // vpmulld %xmm15,%xmm1,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,125,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm1 .byte 196,193,97,254,194 // vpaddd %xmm10,%xmm3,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,194 // vpaddd %xmm10,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,121,33,196,32 // vinsertps $0x20,%xmm4,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,121,33,196,48 // vinsertps $0x30,%xmm4,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 196,227,93,24,240,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm6 .byte 196,193,97,254,193 // vpaddd %xmm9,%xmm3,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,193 // vpaddd %xmm9,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0 .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2 .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1 .byte 197,212,89,201 // vmulps %ymm1,%ymm5,%ymm1 .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1 .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp) .byte 196,193,76,92,200 // vsubps %ymm8,%ymm6,%ymm1 .byte 197,212,89,201 // vmulps %ymm1,%ymm5,%ymm1 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 197,252,17,140,36,64,1,0,0 // vmovups %ymm1,0x140(%rsp) .byte 196,193,124,92,196 // vsubps %ymm12,%ymm0,%ymm0 .byte 197,212,89,192 // vmulps %ymm0,%ymm5,%ymm0 .byte 197,28,88,192 // vaddps %ymm0,%ymm12,%ymm8 .byte 197,249,111,132,36,208,1,0,0 // vmovdqa 0x1d0(%rsp),%xmm0 .byte 197,249,254,52,36 // vpaddd (%rsp),%xmm0,%xmm6 .byte 197,201,254,68,36,128 // vpaddd -0x80(%rsp),%xmm6,%xmm0 .byte 196,194,121,64,215 // vpmulld %xmm15,%xmm0,%xmm2 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,227,121,33,217,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm3 .byte 197,249,111,132,36,192,1,0,0 // vmovdqa 0x1c0(%rsp),%xmm0 .byte 197,249,254,76,36,240 // vpaddd -0x10(%rsp),%xmm0,%xmm1 .byte 196,193,113,254,197 // vpaddd %xmm13,%xmm1,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4 .byte 196,163,89,33,36,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,163,89,33,36,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,99,101,24,236,1 // vinsertf128 $0x1,%xmm4,%ymm3,%ymm13 .byte 196,193,121,254,226 // vpaddd %xmm10,%xmm0,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,105,254,226 // vpaddd %xmm10,%xmm2,%xmm4 .byte 196,193,249,126,227 // vmovq %xmm4,%r11 .byte 196,227,249,22,227,1 // vpextrq $0x1,%xmm4,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4 .byte 196,163,89,33,36,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7 .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,163,65,33,60,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,65,33,219,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,97,33,223,48 // vinsertps $0x30,%xmm7,%xmm3,%xmm3 .byte 196,99,101,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm3,%ymm14 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,193 // vpaddd %xmm9,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,99,109,24,224,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm12 .byte 197,201,254,68,36,144 // vpaddd -0x70(%rsp),%xmm6,%xmm0 .byte 196,194,121,64,215 // vpmulld %xmm15,%xmm0,%xmm2 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,121,33,219,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm3 .byte 197,161,254,193 // vpaddd %xmm1,%xmm11,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 197,249,126,195 // vmovd %xmm0,%ebx .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1 .byte 196,193,121,254,218 // vpaddd %xmm10,%xmm0,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,105,254,218 // vpaddd %xmm10,%xmm2,%xmm3 .byte 196,193,249,126,219 // vmovq %xmm3,%r11 .byte 196,227,249,22,219,1 // vpextrq $0x1,%xmm3,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3 .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 196,227,93,24,243,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm6 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,193 // vpaddd %xmm9,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0 .byte 196,193,116,92,205 // vsubps %ymm13,%ymm1,%ymm1 .byte 197,252,17,172,36,160,1,0,0 // vmovups %ymm5,0x1a0(%rsp) .byte 197,212,89,201 // vmulps %ymm1,%ymm5,%ymm1 .byte 197,148,88,201 // vaddps %ymm1,%ymm13,%ymm1 .byte 196,193,76,92,214 // vsubps %ymm14,%ymm6,%ymm2 .byte 197,212,89,210 // vmulps %ymm2,%ymm5,%ymm2 .byte 197,140,88,210 // vaddps %ymm2,%ymm14,%ymm2 .byte 196,193,124,92,196 // vsubps %ymm12,%ymm0,%ymm0 .byte 197,212,89,192 // vmulps %ymm0,%ymm5,%ymm0 .byte 197,156,88,192 // vaddps %ymm0,%ymm12,%ymm0 .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 197,252,16,156,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,16,164,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm4 .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2 .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 .byte 197,252,91,156,36,128,1,0,0 // vcvtdq2ps 0x180(%rsp),%ymm3 .byte 197,252,16,164,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm4 .byte 197,220,92,219 // vsubps %ymm3,%ymm4,%ymm3 .byte 197,252,17,92,36,192 // vmovups %ymm3,-0x40(%rsp) .byte 197,252,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm4 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,17,140,36,32,1,0,0 // vmovups %ymm1,0x120(%rsp) .byte 197,252,16,100,36,96 // vmovups 0x60(%rsp),%ymm4 .byte 197,236,92,204 // vsubps %ymm4,%ymm2,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,17,140,36,128,1,0,0 // vmovups %ymm1,0x180(%rsp) .byte 197,252,16,76,36,64 // vmovups 0x40(%rsp),%ymm1 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp) .byte 197,252,16,68,36,32 // vmovups 0x20(%rsp),%ymm0 .byte 197,252,88,132,36,0,2,0,0 // vaddps 0x200(%rsp),%ymm0,%ymm0 .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,249,254,140,36,192,0,0,0 // vpaddd 0xc0(%rsp),%xmm0,%xmm1 .byte 197,249,127,76,36,32 // vmovdqa %xmm1,0x20(%rsp) .byte 197,253,111,224 // vmovdqa %ymm0,%ymm4 .byte 197,254,127,100,36,64 // vmovdqu %ymm4,0x40(%rsp) .byte 197,241,254,148,36,0,1,0,0 // vpaddd 0x100(%rsp),%xmm1,%xmm2 .byte 197,249,111,108,36,128 // vmovdqa -0x80(%rsp),%xmm5 .byte 197,209,254,194 // vpaddd %xmm2,%xmm5,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm1,%xmm1 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,113,33,251,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm7 .byte 196,227,125,25,225,1 // vextractf128 $0x1,%ymm4,%xmm1 .byte 197,248,41,76,36,96 // vmovaps %xmm1,0x60(%rsp) .byte 197,113,254,180,36,160,0,0,0 // vpaddd 0xa0(%rsp),%xmm1,%xmm14 .byte 197,137,254,76,36,16 // vpaddd 0x10(%rsp),%xmm14,%xmm1 .byte 197,241,254,92,36,176 // vpaddd -0x50(%rsp),%xmm1,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4 .byte 196,163,89,33,36,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,163,89,33,36,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,99,69,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm7,%ymm12 .byte 196,193,97,254,226 // vpaddd %xmm10,%xmm3,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,121,254,226 // vpaddd %xmm10,%xmm0,%xmm4 .byte 196,225,249,126,227 // vmovq %xmm4,%rbx .byte 196,195,249,22,227,1 // vpextrq $0x1,%xmm4,%r11 .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4 .byte 196,163,89,33,36,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 65,137,217 // mov %ebx,%r9d .byte 69,137,218 // mov %r11d,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,227,73,33,52,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm6,%xmm6 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6 .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,152 // vmovss (%rax,%r11,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,99,77,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm6,%ymm8 .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,99,101,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm13 .byte 197,121,111,92,36,144 // vmovdqa -0x70(%rsp),%xmm11 .byte 197,161,254,194 // vpaddd %xmm2,%xmm11,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm2,%xmm2 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 197,241,254,76,36,160 // vpaddd -0x60(%rsp),%xmm1,%xmm1 .byte 196,194,113,64,223 // vpmulld %xmm15,%xmm1,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1 .byte 196,193,97,254,210 // vpaddd %xmm10,%xmm3,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,121,254,210 // vpaddd %xmm10,%xmm0,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,105,33,212,32 // vinsertps $0x20,%xmm4,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,105,33,212,48 // vinsertps $0x30,%xmm4,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2 .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0 .byte 196,193,116,92,204 // vsubps %ymm12,%ymm1,%ymm1 .byte 197,252,16,156,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12 .byte 196,193,108,92,200 // vsubps %ymm8,%ymm2,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 197,252,17,140,36,192,0,0,0 // vmovups %ymm1,0xc0(%rsp) .byte 196,193,124,92,197 // vsubps %ymm13,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0 .byte 197,252,17,132,36,160,0,0,0 // vmovups %ymm0,0xa0(%rsp) .byte 197,249,111,68,36,32 // vmovdqa 0x20(%rsp),%xmm0 .byte 197,249,254,20,36 // vpaddd (%rsp),%xmm0,%xmm2 .byte 197,233,254,197 // vpaddd %xmm5,%xmm2,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,163,113,33,12,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm1,%xmm1 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,113,33,227,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm4 .byte 197,137,254,76,36,240 // vpaddd -0x10(%rsp),%xmm14,%xmm1 .byte 197,121,111,68,36,176 // vmovdqa -0x50(%rsp),%xmm8 .byte 196,193,113,254,216 // vpaddd %xmm8,%xmm1,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6 .byte 196,163,73,33,52,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6 .byte 196,163,73,33,52,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6 .byte 196,99,93,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm4,%ymm14 .byte 196,193,97,254,226 // vpaddd %xmm10,%xmm3,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,121,254,226 // vpaddd %xmm10,%xmm0,%xmm4 .byte 196,193,249,126,227 // vmovq %xmm4,%r11 .byte 196,227,249,22,227,1 // vpextrq $0x1,%xmm4,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4 .byte 196,163,89,33,36,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6 .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,163,73,33,52,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm6,%xmm6 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,227,77,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm6,%ymm6 .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,99,101,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm13 .byte 197,161,254,194 // vpaddd %xmm2,%xmm11,%xmm0 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm2,%xmm2 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 197,249,111,108,36,160 // vmovdqa -0x60(%rsp),%xmm5 .byte 197,209,254,201 // vpaddd %xmm1,%xmm5,%xmm1 .byte 196,194,113,64,223 // vpmulld %xmm15,%xmm1,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1 .byte 196,193,97,254,210 // vpaddd %xmm10,%xmm3,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,121,254,210 // vpaddd %xmm10,%xmm0,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,36,184 // vmovss (%rax,%r15,4),%xmm4 .byte 196,227,105,33,212,32 // vinsertps $0x20,%xmm4,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,227,105,33,212,48 // vinsertps $0x30,%xmm4,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4 .byte 196,163,89,33,36,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2 .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3 .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9 .byte 196,193,249,126,218 // vmovq %xmm3,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0 .byte 196,193,116,92,206 // vsubps %ymm14,%ymm1,%ymm1 .byte 197,252,16,156,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,140,88,201 // vaddps %ymm1,%ymm14,%ymm1 .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,204,88,210 // vaddps %ymm2,%ymm6,%ymm2 .byte 196,193,124,92,197 // vsubps %ymm13,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0 .byte 196,193,116,92,204 // vsubps %ymm12,%ymm1,%ymm1 .byte 197,252,16,156,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,156,88,201 // vaddps %ymm1,%ymm12,%ymm1 .byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp) .byte 197,252,16,164,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm4 .byte 197,236,92,204 // vsubps %ymm4,%ymm2,%ymm1 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,17,140,36,192,0,0,0 // vmovups %ymm1,0xc0(%rsp) .byte 197,252,16,140,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm1 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0 .byte 197,252,17,132,36,160,0,0,0 // vmovups %ymm0,0xa0(%rsp) .byte 197,254,111,68,36,64 // vmovdqu 0x40(%rsp),%ymm0 .byte 197,121,254,116,36,224 // vpaddd -0x20(%rsp),%xmm0,%xmm14 .byte 197,249,111,68,36,96 // vmovdqa 0x60(%rsp),%xmm0 .byte 197,121,254,172,36,96,1,0,0 // vpaddd 0x160(%rsp),%xmm0,%xmm13 .byte 197,137,254,148,36,0,1,0,0 // vpaddd 0x100(%rsp),%xmm14,%xmm2 .byte 197,233,254,68,36,128 // vpaddd -0x80(%rsp),%xmm2,%xmm0 .byte 196,194,121,64,247 // vpmulld %xmm15,%xmm0,%xmm6 .byte 196,193,249,126,242 // vmovq %xmm6,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,243,1 // vpextrq $0x1,%xmm6,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0 .byte 197,145,254,76,36,16 // vpaddd 0x10(%rsp),%xmm13,%xmm1 .byte 196,193,113,254,216 // vpaddd %xmm8,%xmm1,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4 .byte 196,163,89,33,36,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,163,89,33,36,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4 .byte 196,99,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm12 .byte 196,193,97,254,226 // vpaddd %xmm10,%xmm3,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,73,254,226 // vpaddd %xmm10,%xmm6,%xmm4 .byte 196,193,249,126,227 // vmovq %xmm4,%r11 .byte 196,227,249,22,227,1 // vpextrq $0x1,%xmm4,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4 .byte 196,163,89,33,36,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7 .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,163,65,33,60,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,4,144 // vmovss (%rax,%r10,4),%xmm0 .byte 196,227,65,33,192,32 // vinsertps $0x20,%xmm0,%xmm7,%xmm0 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,121,33,199,48 // vinsertps $0x30,%xmm7,%xmm0,%xmm0 .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4 .byte 196,193,97,254,193 // vpaddd %xmm9,%xmm3,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,73,254,193 // vpaddd %xmm9,%xmm6,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6 .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3 .byte 196,99,101,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm11 .byte 197,233,254,68,36,144 // vpaddd -0x70(%rsp),%xmm2,%xmm0 .byte 196,194,121,64,215 // vpmulld %xmm15,%xmm0,%xmm2 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,163,121,33,4,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm0,%xmm0 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0 .byte 197,209,254,201 // vpaddd %xmm1,%xmm5,%xmm1 .byte 196,194,113,64,223 // vpmulld %xmm15,%xmm1,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1 .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1 .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1 .byte 196,227,125,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm1 .byte 196,193,97,254,194 // vpaddd %xmm10,%xmm3,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,194 // vpaddd %xmm10,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6 .byte 196,227,121,33,198,32 // vinsertps $0x20,%xmm6,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,227,121,33,198,48 // vinsertps $0x30,%xmm6,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6 .byte 196,163,73,33,52,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm6,%xmm6 .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7 .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,227,77,24,240,1 // vinsertf128 $0x1,%xmm0,%ymm6,%ymm6 .byte 196,193,97,254,193 // vpaddd %xmm9,%xmm3,%xmm0 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 196,193,105,254,193 // vpaddd %xmm9,%xmm2,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm2,%xmm2 .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0 .byte 196,193,116,92,204 // vsubps %ymm12,%ymm1,%ymm1 .byte 197,252,16,148,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm2 .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1 .byte 197,156,88,201 // vaddps %ymm1,%ymm12,%ymm1 .byte 197,252,17,140,36,0,1,0,0 // vmovups %ymm1,0x100(%rsp) .byte 197,204,92,204 // vsubps %ymm4,%ymm6,%ymm1 .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1 .byte 197,92,88,225 // vaddps %ymm1,%ymm4,%ymm12 .byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0 .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0 .byte 197,252,40,234 // vmovaps %ymm2,%ymm5 .byte 197,36,88,216 // vaddps %ymm0,%ymm11,%ymm11 .byte 197,145,254,76,36,240 // vpaddd -0x10(%rsp),%xmm13,%xmm1 .byte 197,137,254,4,36 // vpaddd (%rsp),%xmm14,%xmm0 .byte 197,249,254,92,36,128 // vpaddd -0x80(%rsp),%xmm0,%xmm3 .byte 196,66,97,64,247 // vpmulld %xmm15,%xmm3,%xmm14 .byte 196,65,249,126,242 // vmovq %xmm14,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,99,249,22,243,1 // vpextrq $0x1,%xmm14,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,163,97,33,28,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm3,%xmm3 .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,228,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm4 .byte 196,193,113,254,216 // vpaddd %xmm8,%xmm1,%xmm3 .byte 196,194,97,64,223 // vpmulld %xmm15,%xmm3,%xmm3 .byte 197,249,126,219 // vmovd %xmm3,%ebx .byte 196,195,121,22,217,1 // vpextrd $0x1,%xmm3,%r9d .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6 .byte 196,163,73,33,52,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6 .byte 196,163,73,33,52,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6 .byte 196,99,93,24,198,1 // vinsertf128 $0x1,%xmm6,%ymm4,%ymm8 .byte 196,193,97,254,226 // vpaddd %xmm10,%xmm3,%xmm4 .byte 196,195,249,22,225,1 // vpextrq $0x1,%xmm4,%r9 .byte 196,193,249,126,226 // vmovq %xmm4,%r10 .byte 196,193,9,254,226 // vpaddd %xmm10,%xmm14,%xmm4 .byte 196,193,249,126,227 // vmovq %xmm4,%r11 .byte 196,227,249,22,227,1 // vpextrq $0x1,%xmm4,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4 .byte 196,163,89,33,36,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm4,%xmm4 .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7 .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7 .byte 196,163,65,33,60,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm7,%xmm7 .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2 .byte 196,227,65,33,210,32 // vinsertps $0x20,%xmm2,%xmm7,%xmm2 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7 .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2 .byte 196,227,109,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm2,%ymm7 .byte 196,193,97,254,209 // vpaddd %xmm9,%xmm3,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,9,254,209 // vpaddd %xmm9,%xmm14,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4 .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4 .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3 .byte 196,99,101,24,242,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm14 .byte 197,249,254,68,36,144 // vpaddd -0x70(%rsp),%xmm0,%xmm0 .byte 197,241,254,76,36,160 // vpaddd -0x60(%rsp),%xmm1,%xmm1 .byte 196,194,113,64,207 // vpmulld %xmm15,%xmm1,%xmm1 .byte 196,194,121,64,199 // vpmulld %xmm15,%xmm0,%xmm0 .byte 196,193,249,126,194 // vmovq %xmm0,%r10 .byte 69,137,209 // mov %r10d,%r9d .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,163,105,33,20,152,32 // vinsertps $0x20,(%rax,%r11,4),%xmm2,%xmm2 .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 197,249,126,203 // vmovd %xmm1,%ebx .byte 196,195,121,22,201,1 // vpextrd $0x1,%xmm1,%r9d .byte 196,195,121,22,202,2 // vpextrd $0x2,%xmm1,%r10d .byte 196,195,121,22,203,3 // vpextrd $0x3,%xmm1,%r11d .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3 .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3 .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3 .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,227,109,24,227,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm4 .byte 196,193,113,254,210 // vpaddd %xmm10,%xmm1,%xmm2 .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9 .byte 196,193,249,126,210 // vmovq %xmm2,%r10 .byte 196,193,121,254,210 // vpaddd %xmm10,%xmm0,%xmm2 .byte 196,193,249,126,211 // vmovq %xmm2,%r11 .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 69,137,207 // mov %r9d,%r15d .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2 .byte 196,163,105,33,20,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm2,%xmm2 .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3 .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2 .byte 69,137,217 // mov %r11d,%r9d .byte 65,137,218 // mov %ebx,%r10d .byte 73,193,235,32 // shr $0x20,%r11 .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3 .byte 196,163,97,33,28,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm3,%xmm3 .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6 .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3 .byte 72,193,235,32 // shr $0x20,%rbx .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6 .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3 .byte 196,227,101,24,218,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm3 .byte 196,193,113,254,201 // vpaddd %xmm9,%xmm1,%xmm1 .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9 .byte 196,193,249,126,202 // vmovq %xmm1,%r10 .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0 .byte 196,193,249,126,195 // vmovq %xmm0,%r11 .byte 196,195,249,22,199,1 // vpextrq $0x1,%xmm0,%r15 .byte 69,137,214 // mov %r10d,%r14d .byte 73,193,234,32 // shr $0x20,%r10 .byte 196,161,122,16,4,176 // vmovss (%rax,%r14,4),%xmm0 .byte 196,163,121,33,4,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm0,%xmm0 .byte 68,137,203 // mov %r9d,%ebx .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0 .byte 73,193,233,32 // shr $0x20,%r9 .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1 .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1 .byte 196,163,113,33,12,152,16 // vinsertps $0x10,(%rax,%r11,4),%xmm1,%xmm1 .byte 68,137,251 // mov %r15d,%ebx .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2 .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1 .byte 73,193,239,32 // shr $0x20,%r15 .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2 .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,193,92,92,200 // vsubps %ymm8,%ymm4,%ymm1 .byte 197,212,89,201 // vmulps %ymm1,%ymm5,%ymm1 .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1 .byte 197,228,92,215 // vsubps %ymm7,%ymm3,%ymm2 .byte 197,212,89,210 // vmulps %ymm2,%ymm5,%ymm2 .byte 197,196,88,210 // vaddps %ymm2,%ymm7,%ymm2 .byte 196,193,124,92,198 // vsubps %ymm14,%ymm0,%ymm0 .byte 197,212,89,192 // vmulps %ymm0,%ymm5,%ymm0 .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0 .byte 197,252,16,164,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm4 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 197,252,16,156,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 196,193,108,92,212 // vsubps %ymm12,%ymm2,%ymm2 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,156,88,210 // vaddps %ymm2,%ymm12,%ymm2 .byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0 .byte 197,252,16,100,36,32 // vmovups 0x20(%rsp),%ymm4 .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1 .byte 197,252,16,92,36,192 // vmovups -0x40(%rsp),%ymm3 .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1 .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1 .byte 197,252,16,164,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm4 .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2 .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2 .byte 197,252,16,164,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm4 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 .byte 197,220,88,216 // vaddps %ymm0,%ymm4,%ymm3 .byte 197,252,91,132,36,224,1,0,0 // vcvtdq2ps 0x1e0(%rsp),%ymm0 .byte 197,252,16,164,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm4 .byte 197,220,92,224 // vsubps %ymm0,%ymm4,%ymm4 .byte 197,252,16,172,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm5 .byte 197,244,92,197 // vsubps %ymm5,%ymm1,%ymm0 .byte 197,220,89,192 // vmulps %ymm0,%ymm4,%ymm0 .byte 197,212,88,192 // vaddps %ymm0,%ymm5,%ymm0 .byte 197,252,16,172,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm5 .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1 .byte 197,220,89,201 // vmulps %ymm1,%ymm4,%ymm1 .byte 197,212,88,201 // vaddps %ymm1,%ymm5,%ymm1 .byte 197,252,16,172,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm5 .byte 197,228,92,213 // vsubps %ymm5,%ymm3,%ymm2 .byte 197,220,89,210 // vmulps %ymm2,%ymm4,%ymm2 .byte 197,212,88,210 // vaddps %ymm2,%ymm5,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,29,112,5,0,0 // vbroadcastss 0x570(%rip),%ymm3 # b2f8 <_sk_clut_4D_avx+0x2661> .byte 197,252,16,164,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm4 .byte 197,252,16,172,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm5 .byte 197,252,16,180,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm6 .byte 197,252,16,188,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm7 .byte 72,129,196,160,2,0,0 // add $0x2a0,%rsp .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax BALIGN4 .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,1 // cmpb $0x1,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 252 // cld .byte 190,0,0,128,63 // mov $0x3f800000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,191,0,0,224,64,154 // cmpb $0x9a,0x40e00000(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope ae75 <.literal4+0xb9> .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope ae85 <.literal4+0xc9> .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope ae95 <.literal4+0xd9> .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax .byte 71,225,61 // rex.RXB loope aea5 <.literal4+0xe9> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax) .byte 67,0,0 // rex.XB add %al,(%r8) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,145,131,158 // add %al,-0x617c6ec1(%rax) .byte 61,154,153,153,62 // cmp $0x3e99999a,%eax .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,92 // ds pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,82,184,78,65 // cmp $0x414eb852,%eax .byte 57,215 // cmp %edx,%edi .byte 32,187,186,159,98,60 // and %bh,0x3c629fba(%rbx) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 252 // cld .byte 191,16,62,168,177 // mov $0xb1a83e10,%edi .byte 152 // cwtl .byte 59,0 // cmp (%rax),%eax .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%rax) .byte 64,0,0 // add %al,(%rax) .byte 0,64,0 // add %al,0x0(%rax) .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax) .byte 62,0,0 // add %al,%ds:(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 0,0 // add %al,(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 128,64,171,170 // addb $0xaa,-0x55(%rax) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,129,128,128,59 // mov $0x3b808081,%esi .byte 129,128,128,59,0,248,0,0,8,33 // addl $0x21080000,-0x7ffc480(%rax) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne af15 <.literal4+0x159> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,129,128,128,59 // and %eax,0x3b808081(,%rdi,1) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax) .byte 0,52,255 // add %dh,(%rdi,%rdi,8) .byte 255 // (bad) .byte 127,0 // jg af3c <.literal4+0x180> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja afb5 <.literal4+0x1f9> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg af70 <.literal4+0x1b4> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja afe9 <.literal4+0x22d> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg afa4 <.literal4+0x1e8> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja b01d <.literal4+0x261> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg afd8 <.literal4+0x21c> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja b051 <.literal4+0x295> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,128,63,0,0,0 // add %al,0x3f(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg b00c <.literal4+0x250> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja b085 <.literal4+0x2c9> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9 .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,200 // add %cl,%al .byte 66,0,0 // rex.X add %al,(%rax) .byte 127,67 // jg b07f <.literal4+0x2c3> .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx) .byte 13,60,111,18,3 // or $0x3126f3c,%eax .byte 59,10 // cmp (%rdx),%ecx .byte 215 // xlat %ds:(%rbx) .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b .byte 190,80,128,3,62 // mov $0x3e038050,%esi .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe b09f <.literal4+0x2e3> .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 129,128,128,59,0,0,128,63,129,128 // addl $0x80813f80,0x3b80(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,128,63,129,128,128 // add %al,-0x7f7f7ec1(%rax) .byte 59,0 // cmp (%rax),%eax .byte 0,128,63,0,248,0 // add %al,0xf8003f(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,132,55,224,7,0,0 // and %eax,0x7e0(%rdi,%rsi,1) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne b0b9 <.literal4+0x2fd> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne b0d5 <.literal4+0x319> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1) .byte 0,0 // add %al,(%rax) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 124,66 // jl b12a <.literal4+0x36e> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,240 // mov %ecx,-0xfffc278(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,240 // mov %ecx,-0xfffc278(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax) .byte 112,65 // jo b18d <.literal4+0x3d1> .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,128,0,0,0,0 // add %al,0x0(%rax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,128,0,0,0,0 // add %al,0x0(%rax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,128,0,0,0,0 // add %al,0x0(%rax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,128,56 // add %al,0x38800000(%rax) .byte 0,64,254 // add %al,-0x2(%rax) .byte 255,128,0,128,55,128 // incl -0x7fc88000(%rax) .byte 0,128,55,0,0,128 // add %al,-0x7fffffc9(%rax) .byte 63 // (bad) .byte 0,255 // add %bh,%bh .byte 127,71 // jg b1ff <.literal4+0x443> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,191,0,0,0 // add %al,0xbf(%rax) .byte 63 // (bad) .byte 208 // (bad) .byte 179,89 // mov $0x59,%bl .byte 62,89 // ds pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 152 // cwtl .byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx) .byte 192,18,120 // rclb $0x78,(%rdx) .byte 57,64,32 // cmp %eax,0x20(%rax) .byte 148 // xchg %eax,%esp .byte 90 // pop %rdx .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,0,24 // add %bl,%ds:(%rax) .byte 161,57,1,0,0,0,111,43,231 // movabs 0xe72b6f0000000139,%eax .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx .byte 212 // (bad) .byte 100,84 // fs push %rsp .byte 189,169,240,34,62 // mov $0x3e22f0a9,%ebp .byte 0,0 // add %al,(%rax) .byte 128,62,0 // cmpb $0x0,(%rsi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,128,63,114 // sarb $0x72,0x3f800000(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,0,0,0,191 // mov $0xbf000000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,85 // cmpb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,192,63 // mov $0x3fc00000,%edi .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,192,63 // mov $0x3fc00000,%edi .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 192,63,114 // sarb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,0,0,192,191 // mov $0xbfc00000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,114 // cmpb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,0,0,0,191 // mov $0xbf000000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,85 // cmpb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,192,63 // mov $0x3fc00000,%edi .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,192,63 // mov $0x3fc00000,%edi .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 192,63,114 // sarb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,114,249,127,63 // mov $0x3f7ff972,%esi .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 114,249 // jb b2e3 <.literal4+0x527> .byte 127,63 // jg b32b <_sk_clut_4D_avx+0x2694> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128 // .byte 0x80 .byte 63 // (bad) BALIGN16 .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,2 // add %al,(%rdx) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) BALIGN32 .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) BALIGN32 HIDDEN _sk_start_pipeline_sse41 .globl _sk_start_pipeline_sse41 FUNCTION(_sk_start_pipeline_sse41) _sk_start_pipeline_sse41: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,40 // sub $0x28,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,137,194 // mov %rax,%rdx .byte 72,137,77,176 // mov %rcx,-0x50(%rbp) .byte 73,57,206 // cmp %rcx,%r14 .byte 115,117 // jae a1 <_sk_start_pipeline_sse41+0xa1> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,4 // lea 0x4(%rax),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,77,192 // mov %r9,-0x40(%rbp) .byte 72,137,85,200 // mov %rdx,-0x38(%rbp) .byte 73,137,221 // mov %rbx,%r13 .byte 73,137,244 // mov %rsi,%r12 .byte 72,57,93,184 // cmp %rbx,-0x48(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 119,45 // ja 7d <_sk_start_pipeline_sse41+0x7d> .byte 76,139,125,208 // mov -0x30(%rbp),%r15 .byte 69,49,192 // xor %r8d,%r8d .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,250 // mov %r15,%rdx .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,141,87,4 // lea 0x4(%r15),%rdx .byte 73,131,199,8 // add $0x8,%r15 .byte 73,57,223 // cmp %rbx,%r15 .byte 73,137,215 // mov %rdx,%r15 .byte 118,215 // jbe 54 <_sk_start_pipeline_sse41+0x54> .byte 73,137,216 // mov %rbx,%r8 .byte 73,41,208 // sub %rdx,%r8 .byte 116,19 // je 98 <_sk_start_pipeline_sse41+0x98> .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,255,198 // inc %r14 .byte 76,59,117,176 // cmp -0x50(%rbp),%r14 .byte 117,165 // jne 46 <_sk_start_pipeline_sse41+0x46> .byte 72,131,196,40 // add $0x28,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 195 // retq HIDDEN _sk_just_return_sse41 .globl _sk_just_return_sse41 FUNCTION(_sk_just_return_sse41) _sk_just_return_sse41: .byte 195 // retq HIDDEN _sk_seed_shader_sse41 .globl _sk_seed_shader_sse41 FUNCTION(_sk_seed_shader_sse41) _sk_seed_shader_sse41: .byte 102,15,110,194 // movd %edx,%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 15,40,21,156,121,0,0 // movaps 0x799c(%rip),%xmm2 # 7a60 <_sk_clut_4D_sse41+0x11c2> .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,16,7 // movups (%rdi),%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 102,15,110,201 // movd %ecx,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,21,139,121,0,0 // movaps 0x798b(%rip),%xmm2 # 7a70 <_sk_clut_4D_sse41+0x11d2> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,87,246 // xorps %xmm6,%xmm6 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_dither_sse41 .globl _sk_dither_sse41 FUNCTION(_sk_dither_sse41) _sk_dither_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,68,15,110,194 // movd %edx,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 243,68,15,111,79,32 // movdqu 0x20(%rdi),%xmm9 .byte 102,69,15,254,200 // paddd %xmm8,%xmm9 .byte 102,68,15,110,193 // movd %ecx,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 102,69,15,239,193 // pxor %xmm9,%xmm8 .byte 102,68,15,111,21,89,121,0,0 // movdqa 0x7959(%rip),%xmm10 # 7a80 <_sk_clut_4D_sse41+0x11e2> .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,219,218 // pand %xmm10,%xmm11 .byte 102,65,15,114,243,5 // pslld $0x5,%xmm11 .byte 102,69,15,219,209 // pand %xmm9,%xmm10 .byte 102,65,15,114,242,4 // pslld $0x4,%xmm10 .byte 102,68,15,111,37,69,121,0,0 // movdqa 0x7945(%rip),%xmm12 # 7a90 <_sk_clut_4D_sse41+0x11f2> .byte 102,68,15,111,45,76,121,0,0 // movdqa 0x794c(%rip),%xmm13 # 7aa0 <_sk_clut_4D_sse41+0x1202> .byte 102,69,15,111,240 // movdqa %xmm8,%xmm14 .byte 102,69,15,219,245 // pand %xmm13,%xmm14 .byte 102,65,15,114,246,2 // pslld $0x2,%xmm14 .byte 102,69,15,219,233 // pand %xmm9,%xmm13 .byte 102,69,15,254,237 // paddd %xmm13,%xmm13 .byte 102,69,15,219,196 // pand %xmm12,%xmm8 .byte 102,65,15,114,208,1 // psrld $0x1,%xmm8 .byte 102,69,15,219,204 // pand %xmm12,%xmm9 .byte 102,65,15,114,209,2 // psrld $0x2,%xmm9 .byte 102,69,15,235,234 // por %xmm10,%xmm13 .byte 102,69,15,235,233 // por %xmm9,%xmm13 .byte 102,69,15,235,243 // por %xmm11,%xmm14 .byte 102,69,15,235,245 // por %xmm13,%xmm14 .byte 102,69,15,235,240 // por %xmm8,%xmm14 .byte 69,15,91,198 // cvtdq2ps %xmm14,%xmm8 .byte 68,15,89,5,7,121,0,0 // mulps 0x7907(%rip),%xmm8 # 7ab0 <_sk_clut_4D_sse41+0x1212> .byte 68,15,88,5,15,121,0,0 // addps 0x790f(%rip),%xmm8 # 7ac0 <_sk_clut_4D_sse41+0x1222> .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 68,15,95,201 // maxps %xmm1,%xmm9 .byte 68,15,93,211 // minps %xmm3,%xmm10 .byte 65,15,95,210 // maxps %xmm10,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_uniform_color_sse41 .globl _sk_uniform_color_sse41 FUNCTION(_sk_uniform_color_sse41) _sk_uniform_color_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_sse41 .globl _sk_black_color_sse41 FUNCTION(_sk_black_color_sse41) _sk_black_color_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,165,120,0,0 // movaps 0x78a5(%rip),%xmm3 # 7ad0 <_sk_clut_4D_sse41+0x1232> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_sse41 .globl _sk_white_color_sse41 FUNCTION(_sk_white_color_sse41) _sk_white_color_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,5,161,120,0,0 // movaps 0x78a1(%rip),%xmm0 # 7ae0 <_sk_clut_4D_sse41+0x1242> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_rgba_sse41 .globl _sk_load_rgba_sse41 FUNCTION(_sk_load_rgba_sse41) _sk_load_rgba_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 15,16,72,16 // movups 0x10(%rax),%xmm1 .byte 15,16,80,32 // movups 0x20(%rax),%xmm2 .byte 15,16,88,48 // movups 0x30(%rax),%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_rgba_sse41 .globl _sk_store_rgba_sse41 FUNCTION(_sk_store_rgba_sse41) _sk_store_rgba_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,17,0 // movups %xmm0,(%rax) .byte 15,17,72,16 // movups %xmm1,0x10(%rax) .byte 15,17,80,32 // movups %xmm2,0x20(%rax) .byte 15,17,88,48 // movups %xmm3,0x30(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_sse41 .globl _sk_clear_sse41 FUNCTION(_sk_clear_sse41) _sk_clear_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_sse41 .globl _sk_srcatop_sse41 FUNCTION(_sk_srcatop_sse41) _sk_srcatop_sse41: .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 68,15,40,5,97,120,0,0 // movaps 0x7861(%rip),%xmm8 # 7af0 <_sk_clut_4D_sse41+0x1252> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_sse41 .globl _sk_dstatop_sse41 FUNCTION(_sk_dstatop_sse41) _sk_dstatop_sse41: .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 68,15,40,13,36,120,0,0 // movaps 0x7824(%rip),%xmm9 # 7b00 <_sk_clut_4D_sse41+0x1262> .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,197 // mulps %xmm5,%xmm8 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,198 // mulps %xmm6,%xmm8 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 65,15,88,208 // addps %xmm8,%xmm2 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_sse41 .globl _sk_srcin_sse41 FUNCTION(_sk_srcin_sse41) _sk_srcin_sse41: .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_sse41 .globl _sk_dstin_sse41 FUNCTION(_sk_dstin_sse41) _sk_dstin_sse41: .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_sse41 .globl _sk_srcout_sse41 FUNCTION(_sk_srcout_sse41) _sk_srcout_sse41: .byte 68,15,40,5,200,119,0,0 // movaps 0x77c8(%rip),%xmm8 # 7b10 <_sk_clut_4D_sse41+0x1272> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_sse41 .globl _sk_dstout_sse41 FUNCTION(_sk_dstout_sse41) _sk_dstout_sse41: .byte 68,15,40,5,184,119,0,0 // movaps 0x77b8(%rip),%xmm8 # 7b20 <_sk_clut_4D_sse41+0x1282> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_sse41 .globl _sk_srcover_sse41 FUNCTION(_sk_srcover_sse41) _sk_srcover_sse41: .byte 68,15,40,5,155,119,0,0 // movaps 0x779b(%rip),%xmm8 # 7b30 <_sk_clut_4D_sse41+0x1292> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_sse41 .globl _sk_dstover_sse41 FUNCTION(_sk_dstover_sse41) _sk_dstover_sse41: .byte 68,15,40,5,111,119,0,0 // movaps 0x776f(%rip),%xmm8 # 7b40 <_sk_clut_4D_sse41+0x12a2> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_sse41 .globl _sk_modulate_sse41 FUNCTION(_sk_modulate_sse41) _sk_modulate_sse41: .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_sse41 .globl _sk_multiply_sse41 FUNCTION(_sk_multiply_sse41) _sk_multiply_sse41: .byte 68,15,40,5,67,119,0,0 // movaps 0x7743(%rip),%xmm8 # 7b50 <_sk_clut_4D_sse41+0x12b2> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,220 // mulps %xmm4,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,221 // mulps %xmm5,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,222 // mulps %xmm6,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_plus__sse41 .globl _sk_plus__sse41 FUNCTION(_sk_plus__sse41) _sk_plus__sse41: .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_sse41 .globl _sk_screen_sse41 FUNCTION(_sk_screen_sse41) _sk_screen_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,88,197 // addps %xmm5,%xmm8 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 68,15,92,193 // subps %xmm1,%xmm8 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 68,15,88,206 // addps %xmm6,%xmm9 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,92,202 // subps %xmm2,%xmm9 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,88,215 // addps %xmm7,%xmm10 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__sse41 .globl _sk_xor__sse41 FUNCTION(_sk_xor__sse41) _sk_xor__sse41: .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 15,40,29,120,118,0,0 // movaps 0x7678(%rip),%xmm3 # 7b60 <_sk_clut_4D_sse41+0x12c2> .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,92,216 // subps %xmm8,%xmm3 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,89,212 // mulps %xmm4,%xmm10 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,89,213 // mulps %xmm5,%xmm10 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,89,214 // mulps %xmm6,%xmm10 .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_darken_sse41 .globl _sk_darken_sse41 FUNCTION(_sk_darken_sse41) _sk_darken_sse41: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,95,201 // maxps %xmm1,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,95,193 // maxps %xmm9,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,95,209 // maxps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,227,117,0,0 // movaps 0x75e3(%rip),%xmm2 # 7b70 <_sk_clut_4D_sse41+0x12d2> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_lighten_sse41 .globl _sk_lighten_sse41 FUNCTION(_sk_lighten_sse41) _sk_lighten_sse41: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,93,201 // minps %xmm1,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,93,193 // minps %xmm9,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,136,117,0,0 // movaps 0x7588(%rip),%xmm2 # 7b80 <_sk_clut_4D_sse41+0x12e2> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_difference_sse41 .globl _sk_difference_sse41 FUNCTION(_sk_difference_sse41) _sk_difference_sse41: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,93,201 // minps %xmm1,%xmm9 .byte 69,15,88,201 // addps %xmm9,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,93,193 // minps %xmm9,%xmm8 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,34,117,0,0 // movaps 0x7522(%rip),%xmm2 # 7b90 <_sk_clut_4D_sse41+0x12f2> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_exclusion_sse41 .globl _sk_exclusion_sse41 FUNCTION(_sk_exclusion_sse41) _sk_exclusion_sse41: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,197 // mulps %xmm5,%xmm8 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,226,116,0,0 // movaps 0x74e2(%rip),%xmm2 # 7ba0 <_sk_clut_4D_sse41+0x1302> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_colorburn_sse41 .globl _sk_colorburn_sse41 FUNCTION(_sk_colorburn_sse41) _sk_colorburn_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 68,15,40,21,213,116,0,0 // movaps 0x74d5(%rip),%xmm10 # 7bb0 <_sk_clut_4D_sse41+0x1312> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 69,15,40,203 // movaps %xmm11,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,94,192 // divps %xmm8,%xmm0 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,93,224 // minps %xmm0,%xmm12 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,233 // addps %xmm9,%xmm13 .byte 69,15,40,225 // movaps %xmm9,%xmm12 .byte 68,15,88,228 // addps %xmm4,%xmm12 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 102,69,15,56,20,232 // blendvps %xmm0,%xmm8,%xmm13 .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0 .byte 69,15,88,197 // addps %xmm13,%xmm8 .byte 102,69,15,56,20,196 // blendvps %xmm0,%xmm12,%xmm8 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 68,15,89,225 // mulps %xmm1,%xmm12 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,94,193 // divps %xmm1,%xmm0 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,93,232 // minps %xmm0,%xmm13 .byte 68,15,40,247 // movaps %xmm7,%xmm14 .byte 69,15,92,245 // subps %xmm13,%xmm14 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0 .byte 68,15,89,243 // mulps %xmm3,%xmm14 .byte 69,15,88,244 // addps %xmm12,%xmm14 .byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14 .byte 68,15,88,229 // addps %xmm5,%xmm12 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0 .byte 102,65,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm1 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,94,194 // divps %xmm2,%xmm0 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,93,224 // minps %xmm0,%xmm12 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 68,15,194,202,0 // cmpeqps %xmm2,%xmm9 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13 .byte 68,15,88,222 // addps %xmm6,%xmm11 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 65,15,88,213 // addps %xmm13,%xmm2 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0 .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_colordodge_sse41 .globl _sk_colordodge_sse41 FUNCTION(_sk_colordodge_sse41) _sk_colordodge_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 68,15,40,21,179,115,0,0 // movaps 0x73b3(%rip),%xmm10 # 7bc0 <_sk_clut_4D_sse41+0x1322> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,89,224 // mulps %xmm8,%xmm12 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 68,15,94,200 // divps %xmm0,%xmm9 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,40,247 // movaps %xmm7,%xmm14 .byte 69,15,93,241 // minps %xmm9,%xmm14 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,194,195,0 // cmpeqps %xmm3,%xmm0 .byte 68,15,89,243 // mulps %xmm3,%xmm14 .byte 69,15,88,244 // addps %xmm12,%xmm14 .byte 102,69,15,56,20,240 // blendvps %xmm0,%xmm8,%xmm14 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,88,228 // addps %xmm4,%xmm12 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 69,15,88,198 // addps %xmm14,%xmm8 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0 .byte 102,69,15,56,20,196 // blendvps %xmm0,%xmm12,%xmm8 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 68,15,89,229 // mulps %xmm5,%xmm12 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 68,15,94,224 // divps %xmm0,%xmm12 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 68,15,89,241 // mulps %xmm1,%xmm14 .byte 69,15,93,236 // minps %xmm12,%xmm13 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,194,195,0 // cmpeqps %xmm3,%xmm0 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,238 // addps %xmm14,%xmm13 .byte 102,68,15,56,20,233 // blendvps %xmm0,%xmm1,%xmm13 .byte 68,15,88,245 // addps %xmm5,%xmm14 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,88,205 // addps %xmm13,%xmm1 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0 .byte 102,65,15,56,20,206 // blendvps %xmm0,%xmm14,%xmm1 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 68,15,89,230 // mulps %xmm6,%xmm12 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 68,15,94,224 // divps %xmm0,%xmm12 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,93,236 // minps %xmm12,%xmm13 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,194,195,0 // cmpeqps %xmm3,%xmm0 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 65,15,88,213 // addps %xmm13,%xmm2 .byte 68,15,194,206,0 // cmpeqps %xmm6,%xmm9 .byte 68,15,88,222 // addps %xmm6,%xmm11 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_hardlight_sse41 .globl _sk_hardlight_sse41 FUNCTION(_sk_hardlight_sse41) _sk_hardlight_sse41: .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp) .byte 68,15,40,229 // movaps %xmm5,%xmm12 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,40,21,140,114,0,0 // movaps 0x728c(%rip),%xmm10 # 7bd0 <_sk_clut_4D_sse41+0x1332> .byte 65,15,40,234 // movaps %xmm10,%xmm5 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 68,15,92,212 // subps %xmm4,%xmm10 .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 68,15,89,198 // mulps %xmm6,%xmm8 .byte 68,15,88,192 // addps %xmm0,%xmm8 .byte 68,15,40,252 // movaps %xmm4,%xmm15 .byte 69,15,92,249 // subps %xmm9,%xmm15 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,40,247 // movaps %xmm7,%xmm14 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 65,15,89,199 // mulps %xmm15,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 68,15,40,251 // movaps %xmm3,%xmm15 .byte 68,15,92,248 // subps %xmm0,%xmm15 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,196,2 // cmpleps %xmm4,%xmm0 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 69,15,88,201 // addps %xmm9,%xmm9 .byte 102,69,15,56,20,249 // blendvps %xmm0,%xmm9,%xmm15 .byte 68,15,40,221 // movaps %xmm5,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 69,15,40,204 // movaps %xmm12,%xmm9 .byte 69,15,92,233 // subps %xmm9,%xmm13 .byte 68,15,89,232 // mulps %xmm0,%xmm13 .byte 69,15,88,237 // addps %xmm13,%xmm13 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,196,2 // cmpleps %xmm4,%xmm0 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 69,15,88,199 // addps %xmm15,%xmm8 .byte 65,15,89,205 // mulps %xmm13,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,88,204 // addps %xmm12,%xmm1 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 68,15,40,92,36,232 // movaps -0x18(%rsp),%xmm11 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 68,15,88,205 // addps %xmm5,%xmm9 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,196,2 // cmpleps %xmm4,%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,92,234 // subps %xmm2,%xmm5 .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 69,15,92,243 // subps %xmm11,%xmm14 .byte 68,15,89,245 // mulps %xmm5,%xmm14 .byte 69,15,88,246 // addps %xmm14,%xmm14 .byte 65,15,92,222 // subps %xmm14,%xmm3 .byte 102,15,56,20,218 // blendvps %xmm0,%xmm2,%xmm3 .byte 68,15,88,203 // addps %xmm3,%xmm9 .byte 65,15,88,226 // addps %xmm10,%xmm4 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 65,15,40,237 // movaps %xmm13,%xmm5 .byte 65,15,40,243 // movaps %xmm11,%xmm6 .byte 255,224 // jmpq *%rax HIDDEN _sk_overlay_sse41 .globl _sk_overlay_sse41 FUNCTION(_sk_overlay_sse41) _sk_overlay_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,240 // movaps %xmm0,%xmm14 .byte 68,15,40,21,113,113,0,0 // movaps 0x7171(%rip),%xmm10 # 7be0 <_sk_clut_4D_sse41+0x1342> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 68,15,88,192 // addps %xmm0,%xmm8 .byte 68,15,40,235 // movaps %xmm3,%xmm13 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 68,15,89,244 // mulps %xmm4,%xmm14 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 69,15,88,246 // addps %xmm14,%xmm14 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 68,15,89,231 // mulps %xmm7,%xmm12 .byte 65,15,89,205 // mulps %xmm13,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 68,15,92,233 // subps %xmm1,%xmm13 .byte 102,69,15,56,20,238 // blendvps %xmm0,%xmm14,%xmm13 .byte 69,15,88,197 // addps %xmm13,%xmm8 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 68,15,40,235 // movaps %xmm3,%xmm13 .byte 69,15,92,233 // subps %xmm9,%xmm13 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 68,15,40,247 // movaps %xmm7,%xmm14 .byte 68,15,92,245 // subps %xmm5,%xmm14 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 69,15,88,201 // addps %xmm9,%xmm9 .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,88,246 // addps %xmm14,%xmm14 .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 102,69,15,56,20,233 // blendvps %xmm0,%xmm9,%xmm13 .byte 65,15,88,205 // addps %xmm13,%xmm1 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 68,15,40,219 // movaps %xmm3,%xmm11 .byte 68,15,92,218 // subps %xmm2,%xmm11 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,92,238 // subps %xmm6,%xmm13 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 69,15,89,235 // mulps %xmm11,%xmm13 .byte 69,15,88,237 // addps %xmm13,%xmm13 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 102,68,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm12 .byte 69,15,88,204 // addps %xmm12,%xmm9 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_softlight_sse41 .globl _sk_softlight_sse41 FUNCTION(_sk_softlight_sse41) _sk_softlight_sse41: .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp) .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp) .byte 15,41,76,36,200 // movaps %xmm1,-0x38(%rsp) .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,194,207,1 // cmpltps %xmm7,%xmm9 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 65,15,84,193 // andps %xmm9,%xmm0 .byte 15,40,13,72,112,0,0 // movaps 0x7048(%rip),%xmm1 # 7bf0 <_sk_clut_4D_sse41+0x1352> .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 68,15,40,240 // movaps %xmm0,%xmm14 .byte 68,15,40,248 // movaps %xmm0,%xmm15 .byte 15,82,208 // rsqrtps %xmm0,%xmm2 .byte 68,15,83,218 // rcpps %xmm2,%xmm11 .byte 68,15,92,216 // subps %xmm0,%xmm11 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,210 // mulps %xmm2,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 68,15,40,45,38,112,0,0 // movaps 0x7026(%rip),%xmm13 # 7c00 <_sk_clut_4D_sse41+0x1362> .byte 69,15,88,245 // addps %xmm13,%xmm14 .byte 68,15,89,242 // mulps %xmm2,%xmm14 .byte 68,15,40,37,38,112,0,0 // movaps 0x7026(%rip),%xmm12 # 7c10 <_sk_clut_4D_sse41+0x1372> .byte 69,15,89,252 // mulps %xmm12,%xmm15 .byte 69,15,88,254 // addps %xmm14,%xmm15 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 102,69,15,56,20,223 // blendvps %xmm0,%xmm15,%xmm11 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 68,15,88,211 // addps %xmm3,%xmm10 .byte 68,15,89,214 // mulps %xmm6,%xmm10 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,88,218 // addps %xmm2,%xmm11 .byte 15,194,195,2 // cmpleps %xmm3,%xmm0 .byte 102,69,15,56,20,218 // blendvps %xmm0,%xmm10,%xmm11 .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 68,15,94,215 // divps %xmm7,%xmm10 .byte 69,15,84,209 // andps %xmm9,%xmm10 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,210 // mulps %xmm2,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,88,197 // addps %xmm13,%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 65,15,82,194 // rsqrtps %xmm10,%xmm0 .byte 68,15,83,240 // rcpps %xmm0,%xmm14 .byte 69,15,92,242 // subps %xmm10,%xmm14 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 102,68,15,56,20,242 // blendvps %xmm0,%xmm2,%xmm14 .byte 68,15,40,249 // movaps %xmm1,%xmm15 .byte 69,15,92,250 // subps %xmm10,%xmm15 .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 68,15,89,250 // mulps %xmm2,%xmm15 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,89,242 // mulps %xmm2,%xmm14 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp) .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 68,15,88,242 // addps %xmm2,%xmm14 .byte 68,15,88,251 // addps %xmm3,%xmm15 .byte 68,15,89,252 // mulps %xmm4,%xmm15 .byte 15,194,195,2 // cmpleps %xmm3,%xmm0 .byte 102,69,15,56,20,247 // blendvps %xmm0,%xmm15,%xmm14 .byte 68,15,40,249 // movaps %xmm1,%xmm15 .byte 15,40,100,36,216 // movaps -0x28(%rsp),%xmm4 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 65,15,84,193 // andps %xmm9,%xmm0 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 68,15,88,232 // addps %xmm0,%xmm13 .byte 68,15,89,224 // mulps %xmm0,%xmm12 .byte 15,82,208 // rsqrtps %xmm0,%xmm2 .byte 68,15,83,202 // rcpps %xmm2,%xmm9 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,210 // mulps %xmm2,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 68,15,89,234 // mulps %xmm2,%xmm13 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 102,69,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm9 .byte 68,15,40,100,36,232 // movaps -0x18(%rsp),%xmm12 .byte 65,15,40,196 // movaps %xmm12,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 68,15,88,202 // addps %xmm2,%xmm9 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,194,195,2 // cmpleps %xmm3,%xmm0 .byte 102,68,15,56,20,201 // blendvps %xmm0,%xmm1,%xmm9 .byte 68,15,92,255 // subps %xmm7,%xmm15 .byte 69,15,89,199 // mulps %xmm15,%xmm8 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 65,15,89,207 // mulps %xmm15,%xmm1 .byte 69,15,89,252 // mulps %xmm12,%xmm15 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 68,15,88,192 // addps %xmm0,%xmm8 .byte 69,15,88,195 // addps %xmm11,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_hue_sse41 .globl _sk_hue_sse41 FUNCTION(_sk_hue_sse41) _sk_hue_sse41: .byte 15,41,124,36,152 // movaps %xmm7,-0x68(%rsp) .byte 68,15,40,246 // movaps %xmm6,%xmm14 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp) .byte 15,41,76,36,216 // movaps %xmm1,-0x28(%rsp) .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 68,15,41,84,36,200 // movaps %xmm10,-0x38(%rsp) .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 68,15,40,234 // movaps %xmm2,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,205 // movaps %xmm5,%xmm9 .byte 68,15,40,221 // movaps %xmm5,%xmm11 .byte 15,41,108,36,184 // movaps %xmm5,-0x48(%rsp) .byte 69,15,95,222 // maxps %xmm14,%xmm11 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 68,15,40,230 // movaps %xmm6,%xmm12 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 65,15,95,211 // maxps %xmm11,%xmm2 .byte 65,15,40,230 // movaps %xmm14,%xmm4 .byte 15,41,100,36,168 // movaps %xmm4,-0x58(%rsp) .byte 68,15,93,204 // minps %xmm4,%xmm9 .byte 65,15,93,249 // minps %xmm9,%xmm7 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 65,15,93,253 // minps %xmm13,%xmm7 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,93,223 // minps %xmm7,%xmm3 .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 65,15,95,253 // maxps %xmm13,%xmm7 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,95,199 // maxps %xmm7,%xmm0 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 68,15,92,235 // subps %xmm3,%xmm13 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 68,15,94,208 // divps %xmm0,%xmm10 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,94,200 // divps %xmm0,%xmm1 .byte 68,15,89,234 // mulps %xmm2,%xmm13 .byte 68,15,94,232 // divps %xmm0,%xmm13 .byte 15,194,195,4 // cmpneqps %xmm3,%xmm0 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 15,84,200 // andps %xmm0,%xmm1 .byte 68,15,84,232 // andps %xmm0,%xmm13 .byte 15,40,5,145,109,0,0 // movaps 0x6d91(%rip),%xmm0 # 7c20 <_sk_clut_4D_sse41+0x1382> .byte 68,15,89,224 // mulps %xmm0,%xmm12 .byte 15,40,21,150,109,0,0 // movaps 0x6d96(%rip),%xmm2 # 7c30 <_sk_clut_4D_sse41+0x1392> .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 65,15,88,252 // addps %xmm12,%xmm7 .byte 68,15,40,53,151,109,0,0 // movaps 0x6d97(%rip),%xmm14 # 7c40 <_sk_clut_4D_sse41+0x13a2> .byte 68,15,40,252 // movaps %xmm4,%xmm15 .byte 69,15,89,254 // mulps %xmm14,%xmm15 .byte 68,15,88,255 // addps %xmm7,%xmm15 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 65,15,40,221 // movaps %xmm13,%xmm3 .byte 65,15,89,222 // mulps %xmm14,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 69,15,89,248 // mulps %xmm8,%xmm15 .byte 68,15,92,251 // subps %xmm3,%xmm15 .byte 69,15,88,215 // addps %xmm15,%xmm10 .byte 65,15,88,207 // addps %xmm15,%xmm1 .byte 69,15,88,253 // addps %xmm13,%xmm15 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 65,15,93,223 // minps %xmm15,%xmm3 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 15,93,251 // minps %xmm3,%xmm7 .byte 65,15,89,194 // mulps %xmm10,%xmm0 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 69,15,89,247 // mulps %xmm15,%xmm14 .byte 68,15,88,242 // addps %xmm2,%xmm14 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,194,207,2 // cmpleps %xmm7,%xmm9 .byte 65,15,40,222 // movaps %xmm14,%xmm3 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 69,15,40,234 // movaps %xmm10,%xmm13 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,94,235 // divps %xmm3,%xmm13 .byte 69,15,88,238 // addps %xmm14,%xmm13 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,234 // blendvps %xmm0,%xmm10,%xmm13 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,95,199 // maxps %xmm15,%xmm0 .byte 68,15,95,208 // maxps %xmm0,%xmm10 .byte 65,15,40,248 // movaps %xmm8,%xmm7 .byte 15,40,108,36,152 // movaps -0x68(%rsp),%xmm5 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 65,15,194,226,1 // cmpltps %xmm10,%xmm4 .byte 65,15,40,213 // movaps %xmm13,%xmm2 .byte 65,15,92,214 // subps %xmm14,%xmm2 .byte 68,15,40,223 // movaps %xmm7,%xmm11 .byte 69,15,92,222 // subps %xmm14,%xmm11 .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 69,15,92,214 // subps %xmm14,%xmm10 .byte 65,15,94,210 // divps %xmm10,%xmm2 .byte 65,15,88,214 // addps %xmm14,%xmm2 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,92,230 // subps %xmm14,%xmm12 .byte 69,15,89,230 // mulps %xmm14,%xmm12 .byte 68,15,94,227 // divps %xmm3,%xmm12 .byte 69,15,88,230 // addps %xmm14,%xmm12 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12 .byte 65,15,40,204 // movaps %xmm12,%xmm1 .byte 65,15,92,206 // subps %xmm14,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 65,15,94,202 // divps %xmm10,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12 .byte 65,15,40,207 // movaps %xmm15,%xmm1 .byte 65,15,92,206 // subps %xmm14,%xmm1 .byte 65,15,89,206 // mulps %xmm14,%xmm1 .byte 15,94,203 // divps %xmm3,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,207 // blendvps %xmm0,%xmm15,%xmm1 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 65,15,92,214 // subps %xmm14,%xmm2 .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 65,15,94,210 // divps %xmm10,%xmm2 .byte 65,15,88,214 // addps %xmm14,%xmm2 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1 .byte 68,15,40,13,91,108,0,0 // movaps 0x6c5b(%rip),%xmm9 # 7c50 <_sk_clut_4D_sse41+0x13b2> .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,89,100,36,232 // mulps -0x18(%rsp),%xmm4 .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,88,197 // addps %xmm5,%xmm8 .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 68,15,95,234 // maxps %xmm2,%xmm13 .byte 68,15,95,226 // maxps %xmm2,%xmm12 .byte 15,95,202 // maxps %xmm2,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 65,15,88,197 // addps %xmm13,%xmm0 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 65,15,88,220 // addps %xmm12,%xmm3 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 68,15,88,204 // addps %xmm4,%xmm9 .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_saturation_sse41 .globl _sk_saturation_sse41 FUNCTION(_sk_saturation_sse41) _sk_saturation_sse41: .byte 68,15,40,206 // movaps %xmm6,%xmm9 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,41,76,36,216 // movaps %xmm1,-0x28(%rsp) .byte 15,41,68,36,200 // movaps %xmm0,-0x38(%rsp) .byte 68,15,40,212 // movaps %xmm4,%xmm10 .byte 68,15,89,213 // mulps %xmm5,%xmm10 .byte 68,15,40,220 // movaps %xmm4,%xmm11 .byte 68,15,89,222 // mulps %xmm6,%xmm11 .byte 68,15,40,196 // movaps %xmm4,%xmm8 .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 68,15,41,116,36,184 // movaps %xmm14,-0x48(%rsp) .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 68,15,41,76,36,232 // movaps %xmm9,-0x18(%rsp) .byte 65,15,95,217 // maxps %xmm9,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,95,211 // maxps %xmm3,%xmm2 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,93,225 // minps %xmm9,%xmm12 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 65,15,93,220 // minps %xmm12,%xmm3 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,41,100,36,168 // movaps %xmm12,-0x58(%rsp) .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,93,216 // minps %xmm0,%xmm3 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,95,192 // maxps %xmm8,%xmm0 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 15,95,248 // maxps %xmm0,%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 68,15,94,215 // divps %xmm7,%xmm10 .byte 68,15,92,219 // subps %xmm3,%xmm11 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 68,15,94,223 // divps %xmm7,%xmm11 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 68,15,94,199 // divps %xmm7,%xmm8 .byte 15,194,248,4 // cmpneqps %xmm0,%xmm7 .byte 68,15,84,215 // andps %xmm7,%xmm10 .byte 68,15,84,223 // andps %xmm7,%xmm11 .byte 68,15,84,199 // andps %xmm7,%xmm8 .byte 15,40,21,21,107,0,0 // movaps 0x6b15(%rip),%xmm2 # 7c60 <_sk_clut_4D_sse41+0x13c2> .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 15,40,13,24,107,0,0 // movaps 0x6b18(%rip),%xmm1 # 7c70 <_sk_clut_4D_sse41+0x13d2> .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 68,15,40,45,23,107,0,0 // movaps 0x6b17(%rip),%xmm13 # 7c80 <_sk_clut_4D_sse41+0x13e2> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 68,15,88,247 // addps %xmm7,%xmm14 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 65,15,40,251 // movaps %xmm11,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 65,15,89,221 // mulps %xmm13,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 68,15,89,244 // mulps %xmm4,%xmm14 .byte 68,15,92,243 // subps %xmm3,%xmm14 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 69,15,88,222 // addps %xmm14,%xmm11 .byte 69,15,88,240 // addps %xmm8,%xmm14 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,93,198 // minps %xmm14,%xmm0 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,93,216 // minps %xmm0,%xmm3 .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,88,233 // addps %xmm1,%xmm13 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9 .byte 65,15,40,253 // movaps %xmm13,%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 69,15,40,250 // movaps %xmm10,%xmm15 .byte 69,15,92,253 // subps %xmm13,%xmm15 .byte 69,15,89,253 // mulps %xmm13,%xmm15 .byte 68,15,94,255 // divps %xmm7,%xmm15 .byte 69,15,88,253 // addps %xmm13,%xmm15 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,250 // blendvps %xmm0,%xmm10,%xmm15 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,95,198 // maxps %xmm14,%xmm0 .byte 68,15,95,208 // maxps %xmm0,%xmm10 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 69,15,194,194,1 // cmpltps %xmm10,%xmm8 .byte 65,15,40,223 // movaps %xmm15,%xmm3 .byte 65,15,92,221 // subps %xmm13,%xmm3 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 65,15,92,205 // subps %xmm13,%xmm1 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 69,15,92,213 // subps %xmm13,%xmm10 .byte 65,15,94,218 // divps %xmm10,%xmm3 .byte 65,15,88,221 // addps %xmm13,%xmm3 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 102,68,15,56,20,251 // blendvps %xmm0,%xmm3,%xmm15 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 68,15,94,231 // divps %xmm7,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,227 // blendvps %xmm0,%xmm11,%xmm12 .byte 65,15,40,220 // movaps %xmm12,%xmm3 .byte 65,15,92,221 // subps %xmm13,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 65,15,94,218 // divps %xmm10,%xmm3 .byte 65,15,88,221 // addps %xmm13,%xmm3 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 102,68,15,56,20,227 // blendvps %xmm0,%xmm3,%xmm12 .byte 69,15,40,222 // movaps %xmm14,%xmm11 .byte 69,15,92,221 // subps %xmm13,%xmm11 .byte 69,15,89,221 // mulps %xmm13,%xmm11 .byte 68,15,94,223 // divps %xmm7,%xmm11 .byte 69,15,88,221 // addps %xmm13,%xmm11 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,222 // blendvps %xmm0,%xmm14,%xmm11 .byte 65,15,40,251 // movaps %xmm11,%xmm7 .byte 65,15,92,253 // subps %xmm13,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 65,15,94,250 // divps %xmm10,%xmm7 .byte 65,15,88,253 // addps %xmm13,%xmm7 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11 .byte 68,15,40,13,221,105,0,0 // movaps 0x69dd(%rip),%xmm9 # 7c90 <_sk_clut_4D_sse41+0x13f2> .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,92,204 // subps %xmm4,%xmm9 .byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 68,15,95,248 // maxps %xmm0,%xmm15 .byte 68,15,95,224 // maxps %xmm0,%xmm12 .byte 68,15,95,216 // maxps %xmm0,%xmm11 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,40,84,36,216 // movaps -0x28(%rsp),%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 68,15,89,68,36,232 // mulps -0x18(%rsp),%xmm8 .byte 15,40,84,36,184 // movaps -0x48(%rsp),%xmm2 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_color_sse41 .globl _sk_color_sse41 FUNCTION(_sk_color_sse41) _sk_color_sse41: .byte 68,15,40,230 // movaps %xmm6,%xmm12 .byte 68,15,41,100,36,200 // movaps %xmm12,-0x38(%rsp) .byte 68,15,40,221 // movaps %xmm5,%xmm11 .byte 68,15,41,92,36,216 // movaps %xmm11,-0x28(%rsp) .byte 68,15,40,212 // movaps %xmm4,%xmm10 .byte 68,15,41,84,36,232 // movaps %xmm10,-0x18(%rsp) .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,41,84,36,184 // movaps %xmm2,-0x48(%rsp) .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,40,240 // movaps %xmm8,%xmm14 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 68,15,89,244 // mulps %xmm4,%xmm14 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,40,13,40,105,0,0 // movaps 0x6928(%rip),%xmm9 # 7ca0 <_sk_clut_4D_sse41+0x1402> .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 65,15,89,249 // mulps %xmm9,%xmm7 .byte 68,15,40,21,40,105,0,0 // movaps 0x6928(%rip),%xmm10 # 7cb0 <_sk_clut_4D_sse41+0x1412> .byte 65,15,40,219 // movaps %xmm11,%xmm3 .byte 65,15,89,218 // mulps %xmm10,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 68,15,40,29,37,105,0,0 // movaps 0x6925(%rip),%xmm11 # 7cc0 <_sk_clut_4D_sse41+0x1422> .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 69,15,89,235 // mulps %xmm11,%xmm13 .byte 68,15,88,235 // addps %xmm3,%xmm13 .byte 65,15,40,222 // movaps %xmm14,%xmm3 .byte 65,15,89,217 // mulps %xmm9,%xmm3 .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 65,15,89,250 // mulps %xmm10,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 65,15,89,219 // mulps %xmm11,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 68,15,89,238 // mulps %xmm6,%xmm13 .byte 68,15,92,235 // subps %xmm3,%xmm13 .byte 69,15,88,245 // addps %xmm13,%xmm14 .byte 65,15,88,205 // addps %xmm13,%xmm1 .byte 68,15,88,232 // addps %xmm0,%xmm13 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,93,197 // minps %xmm13,%xmm0 .byte 65,15,40,222 // movaps %xmm14,%xmm3 .byte 15,93,216 // minps %xmm0,%xmm3 .byte 69,15,89,206 // mulps %xmm14,%xmm9 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 69,15,88,209 // addps %xmm9,%xmm10 .byte 69,15,89,221 // mulps %xmm13,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9 .byte 69,15,40,230 // movaps %xmm14,%xmm12 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 69,15,89,227 // mulps %xmm11,%xmm12 .byte 65,15,40,251 // movaps %xmm11,%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 68,15,94,231 // divps %xmm7,%xmm12 .byte 69,15,88,227 // addps %xmm11,%xmm12 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,230 // blendvps %xmm0,%xmm14,%xmm12 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,95,197 // maxps %xmm13,%xmm0 .byte 65,15,40,214 // movaps %xmm14,%xmm2 .byte 15,95,208 // maxps %xmm0,%xmm2 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,194,210,1 // cmpltps %xmm2,%xmm10 .byte 69,15,40,244 // movaps %xmm12,%xmm14 .byte 69,15,92,243 // subps %xmm11,%xmm14 .byte 68,15,40,251 // movaps %xmm3,%xmm15 .byte 69,15,92,251 // subps %xmm11,%xmm15 .byte 69,15,89,247 // mulps %xmm15,%xmm14 .byte 65,15,92,211 // subps %xmm11,%xmm2 .byte 68,15,94,242 // divps %xmm2,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,69,15,56,20,230 // blendvps %xmm0,%xmm14,%xmm12 .byte 68,15,40,241 // movaps %xmm1,%xmm14 .byte 69,15,92,243 // subps %xmm11,%xmm14 .byte 69,15,89,243 // mulps %xmm11,%xmm14 .byte 68,15,94,247 // divps %xmm7,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14 .byte 65,15,40,206 // movaps %xmm14,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 65,15,89,207 // mulps %xmm15,%xmm1 .byte 15,94,202 // divps %xmm2,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14 .byte 65,15,40,205 // movaps %xmm13,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,94,207 // divps %xmm7,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,205 // blendvps %xmm0,%xmm13,%xmm1 .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 65,15,92,251 // subps %xmm11,%xmm7 .byte 65,15,89,255 // mulps %xmm15,%xmm7 .byte 15,94,250 // divps %xmm2,%xmm7 .byte 65,15,88,251 // addps %xmm11,%xmm7 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1 .byte 68,15,40,13,225,103,0,0 // movaps 0x67e1(%rip),%xmm9 # 7cd0 <_sk_clut_4D_sse41+0x1432> .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,89,68,36,184 // mulps -0x48(%rsp),%xmm0 .byte 68,15,92,206 // subps %xmm6,%xmm9 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,40,252 // movaps %xmm4,%xmm7 .byte 15,92,243 // subps %xmm3,%xmm6 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 68,15,95,226 // maxps %xmm2,%xmm12 .byte 68,15,95,242 // maxps %xmm2,%xmm14 .byte 15,95,202 // maxps %xmm2,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,40,100,36,232 // movaps -0x18(%rsp),%xmm4 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 69,15,88,196 // addps %xmm12,%xmm8 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 15,40,84,36,200 // movaps -0x38(%rsp),%xmm2 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_luminosity_sse41 .globl _sk_luminosity_sse41 FUNCTION(_sk_luminosity_sse41) _sk_luminosity_sse41: .byte 15,41,116,36,200 // movaps %xmm6,-0x38(%rsp) .byte 15,41,108,36,232 // movaps %xmm5,-0x18(%rsp) .byte 68,15,40,196 // movaps %xmm4,%xmm8 .byte 68,15,41,68,36,216 // movaps %xmm8,-0x28(%rsp) .byte 15,41,84,36,184 // movaps %xmm2,-0x48(%rsp) .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 68,15,40,219 // movaps %xmm3,%xmm11 .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 68,15,40,5,57,103,0,0 // movaps 0x6739(%rip),%xmm8 # 7ce0 <_sk_clut_4D_sse41+0x1442> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 68,15,40,21,61,103,0,0 // movaps 0x673d(%rip),%xmm10 # 7cf0 <_sk_clut_4D_sse41+0x1452> .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 65,15,89,234 // mulps %xmm10,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 68,15,40,37,59,103,0,0 // movaps 0x673b(%rip),%xmm12 # 7d00 <_sk_clut_4D_sse41+0x1462> .byte 68,15,40,242 // movaps %xmm2,%xmm14 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 68,15,88,245 // addps %xmm5,%xmm14 .byte 65,15,40,235 // movaps %xmm11,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 65,15,89,236 // mulps %xmm12,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 68,15,89,247 // mulps %xmm7,%xmm14 .byte 68,15,92,245 // subps %xmm5,%xmm14 .byte 69,15,88,222 // addps %xmm14,%xmm11 .byte 69,15,88,206 // addps %xmm14,%xmm9 .byte 68,15,88,240 // addps %xmm0,%xmm14 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,93,198 // minps %xmm14,%xmm0 .byte 65,15,40,235 // movaps %xmm11,%xmm5 .byte 15,93,232 // minps %xmm0,%xmm5 .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,230 // mulps %xmm14,%xmm12 .byte 69,15,88,226 // addps %xmm10,%xmm12 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 68,15,194,213,2 // cmpleps %xmm5,%xmm10 .byte 69,15,40,235 // movaps %xmm11,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 65,15,40,244 // movaps %xmm12,%xmm6 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 68,15,94,238 // divps %xmm6,%xmm13 .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,69,15,56,20,235 // blendvps %xmm0,%xmm11,%xmm13 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,95,198 // maxps %xmm14,%xmm0 .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 15,95,208 // maxps %xmm0,%xmm2 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 68,15,40,221 // movaps %xmm5,%xmm11 .byte 68,15,194,218,1 // cmpltps %xmm2,%xmm11 .byte 69,15,40,197 // movaps %xmm13,%xmm8 .byte 69,15,92,196 // subps %xmm12,%xmm8 .byte 68,15,40,253 // movaps %xmm5,%xmm15 .byte 69,15,92,252 // subps %xmm12,%xmm15 .byte 69,15,89,199 // mulps %xmm15,%xmm8 .byte 65,15,92,212 // subps %xmm12,%xmm2 .byte 68,15,94,194 // divps %xmm2,%xmm8 .byte 69,15,88,196 // addps %xmm12,%xmm8 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 102,69,15,56,20,232 // blendvps %xmm0,%xmm8,%xmm13 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,92,196 // subps %xmm12,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 .byte 68,15,94,198 // divps %xmm6,%xmm8 .byte 69,15,88,196 // addps %xmm12,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 69,15,89,207 // mulps %xmm15,%xmm9 .byte 68,15,94,202 // divps %xmm2,%xmm9 .byte 69,15,88,204 // addps %xmm12,%xmm9 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 69,15,40,206 // movaps %xmm14,%xmm9 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 69,15,89,204 // mulps %xmm12,%xmm9 .byte 68,15,94,206 // divps %xmm6,%xmm9 .byte 69,15,88,204 // addps %xmm12,%xmm9 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,69,15,56,20,206 // blendvps %xmm0,%xmm14,%xmm9 .byte 65,15,40,241 // movaps %xmm9,%xmm6 .byte 65,15,92,244 // subps %xmm12,%xmm6 .byte 65,15,89,247 // mulps %xmm15,%xmm6 .byte 15,94,242 // divps %xmm2,%xmm6 .byte 65,15,88,244 // addps %xmm12,%xmm6 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9 .byte 15,40,5,241,101,0,0 // movaps 0x65f1(%rip),%xmm0 # 7d10 <_sk_clut_4D_sse41+0x1472> .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,89,84,36,184 // mulps -0x48(%rsp),%xmm2 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 68,15,95,237 // maxps %xmm5,%xmm13 .byte 68,15,95,197 // maxps %xmm5,%xmm8 .byte 68,15,95,205 // maxps %xmm5,%xmm9 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 68,15,40,84,36,216 // movaps -0x28(%rsp),%xmm10 .byte 65,15,89,234 // mulps %xmm10,%xmm5 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 65,15,88,229 // addps %xmm13,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,40,108,36,232 // movaps -0x18(%rsp),%xmm5 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 65,15,40,226 // movaps %xmm10,%xmm4 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_rgba_8888_sse41 .globl _sk_srcover_rgba_8888_sse41 FUNCTION(_sk_srcover_rgba_8888_sse41) _sk_srcover_rgba_8888_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,219,0,0,0 // jne 1887 <_sk_srcover_rgba_8888_sse41+0xfb> .byte 243,65,15,111,60,129 // movdqu (%r9,%rax,4),%xmm7 .byte 77,133,192 // test %r8,%r8 .byte 102,15,111,37,99,101,0,0 // movdqa 0x6563(%rip),%xmm4 # 7d20 <_sk_clut_4D_sse41+0x1482> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 102,15,111,239 // movdqa %xmm7,%xmm5 .byte 102,15,56,0,45,95,101,0,0 // pshufb 0x655f(%rip),%xmm5 # 7d30 <_sk_clut_4D_sse41+0x1492> .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 .byte 102,15,56,0,53,95,101,0,0 // pshufb 0x655f(%rip),%xmm6 # 7d40 <_sk_clut_4D_sse41+0x14a2> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 102,15,114,215,24 // psrld $0x18,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 68,15,40,5,92,101,0,0 // movaps 0x655c(%rip),%xmm8 # 7d50 <_sk_clut_4D_sse41+0x14b2> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 68,15,40,37,96,101,0,0 // movaps 0x6560(%rip),%xmm12 # 7d60 <_sk_clut_4D_sse41+0x14c2> .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 65,15,89,204 // mulps %xmm12,%xmm1 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 68,15,89,213 // mulps %xmm5,%xmm10 .byte 68,15,88,209 // addps %xmm1,%xmm10 .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,222 // mulps %xmm6,%xmm11 .byte 68,15,88,218 // addps %xmm2,%xmm11 .byte 65,15,89,220 // mulps %xmm12,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,88,195 // addps %xmm3,%xmm8 .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0 .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1 .byte 102,15,114,241,8 // pslld $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,65,15,91,211 // cvtps2dq %xmm11,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 .byte 102,15,114,240,24 // pslld $0x18,%xmm0 .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 102,15,235,193 // por %xmm1,%xmm0 .byte 117,88 // jne 18c5 <_sk_srcover_rgba_8888_sse41+0x139> .byte 243,65,15,127,4,129 // movdqu %xmm0,(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,91 // je 18ef <_sk_srcover_rgba_8888_sse41+0x163> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,22 // je 18b4 <_sk_srcover_rgba_8888_sse41+0x128> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 15,133,10,255,255,255 // jne 17b2 <_sk_srcover_rgba_8888_sse41+0x26> .byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 243,65,15,126,36,129 // movq (%r9,%rax,4),%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 .byte 233,237,254,255,255 // jmpq 17b2 <_sk_srcover_rgba_8888_sse41+0x26> .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,40 // je 18fa <_sk_srcover_rgba_8888_sse41+0x16e> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,15 // je 18e7 <_sk_srcover_rgba_8888_sse41+0x15b> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,149 // jne 1873 <_sk_srcover_rgba_8888_sse41+0xe7> .byte 102,65,15,58,22,68,129,8,2 // pextrd $0x2,%xmm0,0x8(%r9,%rax,4) .byte 102,65,15,214,4,129 // movq %xmm0,(%r9,%rax,4) .byte 235,132 // jmp 1873 <_sk_srcover_rgba_8888_sse41+0xe7> .byte 102,65,15,110,60,129 // movd (%r9,%rax,4),%xmm7 .byte 233,184,254,255,255 // jmpq 17b2 <_sk_srcover_rgba_8888_sse41+0x26> .byte 102,65,15,126,4,129 // movd %xmm0,(%r9,%rax,4) .byte 233,110,255,255,255 // jmpq 1873 <_sk_srcover_rgba_8888_sse41+0xe7> HIDDEN _sk_clamp_0_sse41 .globl _sk_clamp_0_sse41 FUNCTION(_sk_clamp_0_sse41) _sk_clamp_0_sse41: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,95,192 // maxps %xmm8,%xmm0 .byte 65,15,95,200 // maxps %xmm8,%xmm1 .byte 65,15,95,208 // maxps %xmm8,%xmm2 .byte 65,15,95,216 // maxps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_1_sse41 .globl _sk_clamp_1_sse41 FUNCTION(_sk_clamp_1_sse41) _sk_clamp_1_sse41: .byte 68,15,40,5,75,100,0,0 // movaps 0x644b(%rip),%xmm8 # 7d70 <_sk_clut_4D_sse41+0x14d2> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 65,15,93,208 // minps %xmm8,%xmm2 .byte 65,15,93,216 // minps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_sse41 .globl _sk_clamp_a_sse41 FUNCTION(_sk_clamp_a_sse41) _sk_clamp_a_sse41: .byte 15,93,29,64,100,0,0 // minps 0x6440(%rip),%xmm3 # 7d80 <_sk_clut_4D_sse41+0x14e2> .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 15,93,211 // minps %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_dst_sse41 .globl _sk_clamp_a_dst_sse41 FUNCTION(_sk_clamp_a_dst_sse41) _sk_clamp_a_dst_sse41: .byte 15,93,61,60,100,0,0 // minps 0x643c(%rip),%xmm7 # 7d90 <_sk_clut_4D_sse41+0x14f2> .byte 15,93,231 // minps %xmm7,%xmm4 .byte 15,93,239 // minps %xmm7,%xmm5 .byte 15,93,247 // minps %xmm7,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_sse41 .globl _sk_set_rgb_sse41 FUNCTION(_sk_set_rgb_sse41) _sk_set_rgb_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_sse41 .globl _sk_swap_rb_sse41 FUNCTION(_sk_swap_rb_sse41) _sk_swap_rb_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_sse41 .globl _sk_invert_sse41 FUNCTION(_sk_invert_sse41) _sk_invert_sse41: .byte 68,15,40,5,8,100,0,0 // movaps 0x6408(%rip),%xmm8 # 7da0 <_sk_clut_4D_sse41+0x1502> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 68,15,92,209 // subps %xmm1,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,92,218 // subps %xmm2,%xmm11 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_src_dst_sse41 .globl _sk_move_src_dst_sse41 FUNCTION(_sk_move_src_dst_sse41) _sk_move_src_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_sse41 .globl _sk_move_dst_src_sse41 FUNCTION(_sk_move_dst_src_sse41) _sk_move_dst_src_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_sse41 .globl _sk_premul_sse41 FUNCTION(_sk_premul_sse41) _sk_premul_sse41: .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_dst_sse41 .globl _sk_premul_dst_sse41 FUNCTION(_sk_premul_dst_sse41) _sk_premul_dst_sse41: .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_unpremul_sse41 .globl _sk_unpremul_sse41 FUNCTION(_sk_unpremul_sse41) _sk_unpremul_sse41: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,40,13,162,99,0,0 // movaps 0x63a2(%rip),%xmm9 # 7db0 <_sk_clut_4D_sse41+0x1512> .byte 68,15,94,203 // divps %xmm3,%xmm9 .byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8 .byte 69,15,84,193 // andps %xmm9,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_sse41 .globl _sk_from_srgb_sse41 FUNCTION(_sk_from_srgb_sse41) _sk_from_srgb_sse41: .byte 68,15,40,29,141,99,0,0 // movaps 0x638d(%rip),%xmm11 # 7dc0 <_sk_clut_4D_sse41+0x1522> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 .byte 68,15,40,37,133,99,0,0 // movaps 0x6385(%rip),%xmm12 # 7dd0 <_sk_clut_4D_sse41+0x1532> .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 .byte 68,15,40,45,133,99,0,0 // movaps 0x6385(%rip),%xmm13 # 7de0 <_sk_clut_4D_sse41+0x1542> .byte 69,15,88,197 // addps %xmm13,%xmm8 .byte 69,15,89,194 // mulps %xmm10,%xmm8 .byte 68,15,40,53,133,99,0,0 // movaps 0x6385(%rip),%xmm14 # 7df0 <_sk_clut_4D_sse41+0x1552> .byte 69,15,88,198 // addps %xmm14,%xmm8 .byte 68,15,40,61,137,99,0,0 // movaps 0x6389(%rip),%xmm15 # 7e00 <_sk_clut_4D_sse41+0x1562> .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,211 // mulps %xmm11,%xmm10 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 69,15,89,204 // mulps %xmm12,%xmm9 .byte 69,15,88,205 // addps %xmm13,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 69,15,88,206 // addps %xmm14,%xmm9 .byte 65,15,194,207,1 // cmpltps %xmm15,%xmm1 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 68,15,40,210 // movaps %xmm2,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 .byte 68,15,89,226 // mulps %xmm2,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_dst_sse41 .globl _sk_from_srgb_dst_sse41 FUNCTION(_sk_from_srgb_dst_sse41) _sk_from_srgb_dst_sse41: .byte 68,15,40,204 // movaps %xmm4,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 68,15,40,29,20,99,0,0 // movaps 0x6314(%rip),%xmm11 # 7e10 <_sk_clut_4D_sse41+0x1572> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 69,15,89,211 // mulps %xmm11,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,37,13,99,0,0 // movaps 0x630d(%rip),%xmm12 # 7e20 <_sk_clut_4D_sse41+0x1582> .byte 65,15,89,228 // mulps %xmm12,%xmm4 .byte 68,15,40,45,17,99,0,0 // movaps 0x6311(%rip),%xmm13 # 7e30 <_sk_clut_4D_sse41+0x1592> .byte 65,15,88,229 // addps %xmm13,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 68,15,40,53,18,99,0,0 // movaps 0x6312(%rip),%xmm14 # 7e40 <_sk_clut_4D_sse41+0x15a2> .byte 65,15,88,230 // addps %xmm14,%xmm4 .byte 68,15,40,61,22,99,0,0 // movaps 0x6316(%rip),%xmm15 # 7e50 <_sk_clut_4D_sse41+0x15b2> .byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4 .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 69,15,89,211 // mulps %xmm11,%xmm10 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,205 // movaps %xmm5,%xmm9 .byte 69,15,89,204 // mulps %xmm12,%xmm9 .byte 69,15,88,205 // addps %xmm13,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 69,15,88,206 // addps %xmm14,%xmm9 .byte 65,15,194,239,1 // cmpltps %xmm15,%xmm5 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9 .byte 68,15,89,222 // mulps %xmm6,%xmm11 .byte 68,15,40,214 // movaps %xmm6,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 .byte 68,15,89,230 // mulps %xmm6,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 65,15,194,247,1 // cmpltps %xmm15,%xmm6 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,233 // movaps %xmm9,%xmm5 .byte 65,15,40,242 // movaps %xmm10,%xmm6 .byte 255,224 // jmpq *%rax HIDDEN _sk_to_srgb_sse41 .globl _sk_to_srgb_sse41 FUNCTION(_sk_to_srgb_sse41) _sk_to_srgb_sse41: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 68,15,82,192 // rsqrtps %xmm0,%xmm8 .byte 68,15,40,29,138,98,0,0 // movaps 0x628a(%rip),%xmm11 # 7e60 <_sk_clut_4D_sse41+0x15c2> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 68,15,40,37,138,98,0,0 // movaps 0x628a(%rip),%xmm12 # 7e70 <_sk_clut_4D_sse41+0x15d2> .byte 69,15,40,248 // movaps %xmm8,%xmm15 .byte 69,15,89,252 // mulps %xmm12,%xmm15 .byte 68,15,40,21,138,98,0,0 // movaps 0x628a(%rip),%xmm10 # 7e80 <_sk_clut_4D_sse41+0x15e2> .byte 69,15,88,250 // addps %xmm10,%xmm15 .byte 69,15,89,248 // mulps %xmm8,%xmm15 .byte 68,15,40,45,138,98,0,0 // movaps 0x628a(%rip),%xmm13 # 7e90 <_sk_clut_4D_sse41+0x15f2> .byte 69,15,88,253 // addps %xmm13,%xmm15 .byte 68,15,40,53,142,98,0,0 // movaps 0x628e(%rip),%xmm14 # 7ea0 <_sk_clut_4D_sse41+0x1602> .byte 69,15,88,198 // addps %xmm14,%xmm8 .byte 69,15,83,192 // rcpps %xmm8,%xmm8 .byte 69,15,89,199 // mulps %xmm15,%xmm8 .byte 68,15,40,61,138,98,0,0 // movaps 0x628a(%rip),%xmm15 # 7eb0 <_sk_clut_4D_sse41+0x1612> .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 68,15,82,202 // rsqrtps %xmm2,%xmm9 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,88,197 // addps %xmm13,%xmm0 .byte 69,15,88,206 // addps %xmm14,%xmm9 .byte 69,15,83,201 // rcpps %xmm9,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 102,68,15,56,20,201 // blendvps %xmm0,%xmm1,%xmm9 .byte 15,82,195 // rsqrtps %xmm3,%xmm0 .byte 68,15,89,224 // mulps %xmm0,%xmm12 .byte 69,15,88,226 // addps %xmm10,%xmm12 .byte 68,15,89,224 // mulps %xmm0,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 65,15,88,198 // addps %xmm14,%xmm0 .byte 68,15,83,208 // rcpps %xmm0,%xmm10 .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 68,15,89,219 // mulps %xmm3,%xmm11 .byte 65,15,194,223,1 // cmpltps %xmm15,%xmm3 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_rgb_to_hsl_sse41 .globl _sk_rgb_to_hsl_sse41 FUNCTION(_sk_rgb_to_hsl_sse41) _sk_rgb_to_hsl_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 69,15,95,217 // maxps %xmm9,%xmm11 .byte 68,15,95,218 // maxps %xmm2,%xmm11 .byte 69,15,40,224 // movaps %xmm8,%xmm12 .byte 69,15,93,225 // minps %xmm9,%xmm12 .byte 68,15,93,226 // minps %xmm2,%xmm12 .byte 65,15,40,203 // movaps %xmm11,%xmm1 .byte 65,15,92,204 // subps %xmm12,%xmm1 .byte 68,15,40,53,215,97,0,0 // movaps 0x61d7(%rip),%xmm14 # 7ec0 <_sk_clut_4D_sse41+0x1622> .byte 68,15,94,241 // divps %xmm1,%xmm14 .byte 69,15,40,211 // movaps %xmm11,%xmm10 .byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 69,15,40,249 // movaps %xmm9,%xmm15 .byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15 .byte 68,15,84,61,190,97,0,0 // andps 0x61be(%rip),%xmm15 # 7ed0 <_sk_clut_4D_sse41+0x1632> .byte 68,15,88,248 // addps %xmm0,%xmm15 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0 .byte 65,15,92,208 // subps %xmm8,%xmm2 .byte 65,15,89,214 // mulps %xmm14,%xmm2 .byte 68,15,40,45,177,97,0,0 // movaps 0x61b1(%rip),%xmm13 # 7ee0 <_sk_clut_4D_sse41+0x1642> .byte 65,15,88,213 // addps %xmm13,%xmm2 .byte 69,15,92,193 // subps %xmm9,%xmm8 .byte 69,15,89,198 // mulps %xmm14,%xmm8 .byte 68,15,88,5,173,97,0,0 // addps 0x61ad(%rip),%xmm8 # 7ef0 <_sk_clut_4D_sse41+0x1652> .byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8 .byte 68,15,89,5,165,97,0,0 // mulps 0x61a5(%rip),%xmm8 # 7f00 <_sk_clut_4D_sse41+0x1662> .byte 69,15,40,203 // movaps %xmm11,%xmm9 .byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9 .byte 69,15,84,193 // andps %xmm9,%xmm8 .byte 69,15,92,235 // subps %xmm11,%xmm13 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 15,40,5,153,97,0,0 // movaps 0x6199(%rip),%xmm0 # 7f10 <_sk_clut_4D_sse41+0x1672> .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,194,194,1 // cmpltps %xmm2,%xmm0 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 102,69,15,56,20,221 // blendvps %xmm0,%xmm13,%xmm11 .byte 65,15,94,203 // divps %xmm11,%xmm1 .byte 65,15,84,201 // andps %xmm9,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_hsl_to_rgb_sse41 .globl _sk_hsl_to_rgb_sse41 FUNCTION(_sk_hsl_to_rgb_sse41) _sk_hsl_to_rgb_sse41: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp) .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp) .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp) .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 68,15,40,13,95,97,0,0 // movaps 0x615f(%rip),%xmm9 # 7f20 <_sk_clut_4D_sse41+0x1682> .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,194,194,2 // cmpleps %xmm2,%xmm0 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 102,15,56,20,235 // blendvps %xmm0,%xmm3,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp) .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 68,15,92,197 // subps %xmm5,%xmm8 .byte 68,15,40,53,58,97,0,0 // movaps 0x613a(%rip),%xmm14 # 7f30 <_sk_clut_4D_sse41+0x1692> .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0 .byte 68,15,92,240 // subps %xmm0,%xmm14 .byte 68,15,40,29,51,97,0,0 // movaps 0x6133(%rip),%xmm11 # 7f40 <_sk_clut_4D_sse41+0x16a2> .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 65,15,92,240 // subps %xmm8,%xmm6 .byte 15,40,61,44,97,0,0 // movaps 0x612c(%rip),%xmm7 # 7f50 <_sk_clut_4D_sse41+0x16b2> .byte 69,15,40,238 // movaps %xmm14,%xmm13 .byte 68,15,89,239 // mulps %xmm7,%xmm13 .byte 15,40,29,45,97,0,0 // movaps 0x612d(%rip),%xmm3 # 7f60 <_sk_clut_4D_sse41+0x16c2> .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,89,230 // mulps %xmm6,%xmm12 .byte 69,15,88,224 // addps %xmm8,%xmm12 .byte 102,69,15,56,20,224 // blendvps %xmm0,%xmm8,%xmm12 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0 .byte 68,15,40,253 // movaps %xmm5,%xmm15 .byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15 .byte 68,15,40,37,12,97,0,0 // movaps 0x610c(%rip),%xmm12 # 7f70 <_sk_clut_4D_sse41+0x16d2> .byte 65,15,40,196 // movaps %xmm12,%xmm0 .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0 .byte 68,15,89,238 // mulps %xmm6,%xmm13 .byte 69,15,88,232 // addps %xmm8,%xmm13 .byte 102,69,15,56,20,239 // blendvps %xmm0,%xmm15,%xmm13 .byte 69,15,87,246 // xorps %xmm14,%xmm14 .byte 68,15,194,241,0 // cmpeqps %xmm1,%xmm14 .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13 .byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0 .byte 69,15,40,250 // movaps %xmm10,%xmm15 .byte 68,15,92,248 // subps %xmm0,%xmm15 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,194,199,2 // cmpleps %xmm15,%xmm0 .byte 65,15,40,207 // movaps %xmm15,%xmm1 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,92,209 // subps %xmm1,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 65,15,88,208 // addps %xmm8,%xmm2 .byte 102,65,15,56,20,208 // blendvps %xmm0,%xmm8,%xmm2 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,194,199,2 // cmpleps %xmm15,%xmm0 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 102,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm4 .byte 65,15,40,196 // movaps %xmm12,%xmm0 .byte 65,15,194,199,2 // cmpleps %xmm15,%xmm0 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 102,15,56,20,204 // blendvps %xmm0,%xmm4,%xmm1 .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2 .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1 .byte 68,15,88,21,132,96,0,0 // addps 0x6084(%rip),%xmm10 # 7f80 <_sk_clut_4D_sse41+0x16e2> .byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11 .byte 65,15,89,250 // mulps %xmm10,%xmm7 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 15,89,222 // mulps %xmm6,%xmm3 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 102,65,15,56,20,216 // blendvps %xmm0,%xmm8,%xmm3 .byte 69,15,194,202,2 // cmpleps %xmm10,%xmm9 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,15,56,20,235 // blendvps %xmm0,%xmm3,%xmm5 .byte 69,15,194,226,2 // cmpleps %xmm10,%xmm12 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 68,15,88,199 // addps %xmm7,%xmm8 .byte 65,15,40,196 // movaps %xmm12,%xmm0 .byte 102,68,15,56,20,197 // blendvps %xmm0,%xmm5,%xmm8 .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,197 // movaps %xmm13,%xmm0 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3 .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4 .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5 .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6 .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_1_float_sse41 .globl _sk_scale_1_float_sse41 FUNCTION(_sk_scale_1_float_sse41) _sk_scale_1_float_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_sse41 .globl _sk_scale_u8_sse41 FUNCTION(_sk_scale_u8_sse41) _sk_scale_u8_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,52 // jne 1fe3 <_sk_scale_u8_sse41+0x4c> .byte 102,71,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm8 .byte 102,68,15,219,5,209,95,0,0 // pand 0x5fd1(%rip),%xmm8 # 7f90 <_sk_clut_4D_sse41+0x16f2> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,5,213,95,0,0 // mulps 0x5fd5(%rip),%xmm8 # 7fa0 <_sk_clut_4D_sse41+0x1702> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,59 // je 202b <_sk_scale_u8_sse41+0x94> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 2012 <_sk_scale_u8_sse41+0x7b> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,181 // jne 1fb6 <_sk_scale_u8_sse41+0x1f> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9 .byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8 .byte 235,139 // jmp 1fb6 <_sk_scale_u8_sse41+0x1f> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 233,124,255,255,255 // jmpq 1fb6 <_sk_scale_u8_sse41+0x1f> HIDDEN _sk_lerp_1_float_sse41 .globl _sk_lerp_1_float_sse41 FUNCTION(_sk_lerp_1_float_sse41) _sk_lerp_1_float_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_sse41 .globl _sk_lerp_u8_sse41 FUNCTION(_sk_lerp_u8_sse41) _sk_lerp_u8_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,72 // jne 20d2 <_sk_lerp_u8_sse41+0x60> .byte 102,71,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm8 .byte 102,68,15,219,5,22,95,0,0 // pand 0x5f16(%rip),%xmm8 # 7fb0 <_sk_clut_4D_sse41+0x1712> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,5,26,95,0,0 // mulps 0x5f1a(%rip),%xmm8 # 7fc0 <_sk_clut_4D_sse41+0x1722> .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,62 // je 211d <_sk_lerp_u8_sse41+0xab> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 2101 <_sk_lerp_u8_sse41+0x8f> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,161 // jne 2091 <_sk_lerp_u8_sse41+0x1f> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9 .byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8 .byte 233,116,255,255,255 // jmpq 2091 <_sk_lerp_u8_sse41+0x1f> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 233,101,255,255,255 // jmpq 2091 <_sk_lerp_u8_sse41+0x1f> HIDDEN _sk_lerp_565_sse41 .globl _sk_lerp_565_sse41 FUNCTION(_sk_lerp_565_sse41) _sk_lerp_565_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 15,133,152,0,0,0 // jne 21e3 <_sk_lerp_565_sse41+0xb7> .byte 102,71,15,56,51,20,89 // pmovzxwd (%r9,%r11,2),%xmm10 .byte 102,68,15,111,5,117,94,0,0 // movdqa 0x5e75(%rip),%xmm8 # 7fd0 <_sk_clut_4D_sse41+0x1732> .byte 102,69,15,219,194 // pand %xmm10,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,5,116,94,0,0 // mulps 0x5e74(%rip),%xmm8 # 7fe0 <_sk_clut_4D_sse41+0x1742> .byte 102,68,15,111,13,123,94,0,0 // movdqa 0x5e7b(%rip),%xmm9 # 7ff0 <_sk_clut_4D_sse41+0x1752> .byte 102,69,15,219,202 // pand %xmm10,%xmm9 .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9 .byte 68,15,89,13,122,94,0,0 // mulps 0x5e7a(%rip),%xmm9 # 8000 <_sk_clut_4D_sse41+0x1762> .byte 102,68,15,219,21,129,94,0,0 // pand 0x5e81(%rip),%xmm10 # 8010 <_sk_clut_4D_sse41+0x1772> .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 68,15,89,21,133,94,0,0 // mulps 0x5e85(%rip),%xmm10 # 8020 <_sk_clut_4D_sse41+0x1782> .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 68,15,88,199 // addps %xmm7,%xmm8 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 68,15,88,207 // addps %xmm7,%xmm9 .byte 65,15,89,218 // mulps %xmm10,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 68,15,95,203 // maxps %xmm3,%xmm9 .byte 69,15,95,193 // maxps %xmm9,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,62 // je 222e <_sk_lerp_565_sse41+0x102> .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,27 // je 2216 <_sk_lerp_565_sse41+0xea> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 15,133,77,255,255,255 // jne 2152 <_sk_lerp_565_sse41+0x26> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10 .byte 102,71,15,110,4,89 // movd (%r9,%r11,2),%xmm8 .byte 102,69,15,56,51,192 // pmovzxwd %xmm8,%xmm8 .byte 102,69,15,58,14,208,15 // pblendw $0xf,%xmm8,%xmm10 .byte 233,36,255,255,255 // jmpq 2152 <_sk_lerp_565_sse41+0x26> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,68,15,110,208 // movd %eax,%xmm10 .byte 233,21,255,255,255 // jmpq 2152 <_sk_lerp_565_sse41+0x26> HIDDEN _sk_load_tables_sse41 .globl _sk_load_tables_sse41 FUNCTION(_sk_load_tables_sse41) _sk_load_tables_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 77,133,192 // test %r8,%r8 .byte 15,133,24,1,0,0 // jne 2363 <_sk_load_tables_sse41+0x126> .byte 243,69,15,111,4,145 // movdqu (%r9,%rdx,4),%xmm8 .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,15,111,5,210,93,0,0 // movdqa 0x5dd2(%rip),%xmm0 # 8030 <_sk_clut_4D_sse41+0x1792> .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 69,15,182,218 // movzbl %r10b,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 69,15,182,241 // movzbl %r9b,%r14d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 102,66,15,58,33,4,19,16 // insertps $0x10,(%rbx,%r10,1),%xmm0 .byte 102,66,15,58,33,4,179,32 // insertps $0x20,(%rbx,%r14,4),%xmm0 .byte 102,66,15,58,33,4,11,48 // insertps $0x30,(%rbx,%r9,1),%xmm0 .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1 .byte 102,15,56,0,13,141,93,0,0 // pshufb 0x5d8d(%rip),%xmm1 # 8040 <_sk_clut_4D_sse41+0x17a2> .byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 68,15,182,211 // movzbl %bl,%r10d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 69,15,182,217 // movzbl %r9b,%r11d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 243,67,15,16,12,151 // movss (%r15,%r10,4),%xmm1 .byte 102,65,15,58,33,12,31,16 // insertps $0x10,(%r15,%rbx,1),%xmm1 .byte 243,67,15,16,20,159 // movss (%r15,%r11,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 243,67,15,16,20,15 // movss (%r15,%r9,1),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 76,139,72,24 // mov 0x18(%rax),%r9 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 .byte 102,15,56,0,21,73,93,0,0 // pshufb 0x5d49(%rip),%xmm2 # 8050 <_sk_clut_4D_sse41+0x17b2> .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 68,15,182,208 // movzbl %al,%r10d .byte 72,193,232,30 // shr $0x1e,%rax .byte 68,15,182,219 // movzbl %bl,%r11d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2 .byte 102,65,15,58,33,20,1,16 // insertps $0x10,(%r9,%rax,1),%xmm2 .byte 243,67,15,16,28,153 // movss (%r9,%r11,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 243,65,15,16,28,25 // movss (%r9,%rbx,1),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8 .byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3 .byte 15,89,29,6,93,0,0 // mulps 0x5d06(%rip),%xmm3 # 8060 <_sk_clut_4D_sse41+0x17c2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,52 // je 23a4 <_sk_load_tables_sse41+0x167> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 2392 <_sk_load_tables_sse41+0x155> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 15,133,204,254,255,255 // jne 2251 <_sk_load_tables_sse41+0x14> .byte 102,65,15,110,68,145,8 // movd 0x8(%r9,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 243,65,15,126,4,145 // movq (%r9,%rdx,4),%xmm0 .byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8 .byte 233,173,254,255,255 // jmpq 2251 <_sk_load_tables_sse41+0x14> .byte 102,69,15,110,4,145 // movd (%r9,%rdx,4),%xmm8 .byte 233,162,254,255,255 // jmpq 2251 <_sk_load_tables_sse41+0x14> HIDDEN _sk_load_tables_u16_be_sse41 .globl _sk_load_tables_u16_be_sse41 FUNCTION(_sk_load_tables_u16_be_sse41) _sk_load_tables_u16_be_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,99,1,0,0 // jne 2528 <_sk_load_tables_u16_be_sse41+0x179> .byte 102,67,15,16,4,81 // movupd (%r9,%r10,2),%xmm0 .byte 243,67,15,111,76,81,16 // movdqu 0x10(%r9,%r10,2),%xmm1 .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,68,15,40,200 // movapd %xmm0,%xmm9 .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9 .byte 102,68,15,111,5,116,92,0,0 // movdqa 0x5c74(%rip),%xmm8 # 8070 <_sk_clut_4D_sse41+0x17d2> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 69,15,182,218 // movzbl %r10b,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 69,15,182,241 // movzbl %r9b,%r14d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 102,66,15,58,33,4,19,16 // insertps $0x10,(%rbx,%r10,1),%xmm0 .byte 243,66,15,16,20,179 // movss (%rbx,%r14,4),%xmm2 .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0 .byte 243,66,15,16,20,11 // movss (%rbx,%r9,1),%xmm2 .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0 .byte 102,15,56,0,13,35,92,0,0 // pshufb 0x5c23(%rip),%xmm1 # 8080 <_sk_clut_4D_sse41+0x17e2> .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1 .byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 68,15,182,211 // movzbl %bl,%r10d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 69,15,182,217 // movzbl %r9b,%r11d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 243,67,15,16,12,151 // movss (%r15,%r10,4),%xmm1 .byte 102,65,15,58,33,12,31,16 // insertps $0x10,(%r15,%rbx,1),%xmm1 .byte 243,67,15,16,20,159 // movss (%r15,%r11,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 243,67,15,16,20,15 // movss (%r15,%r9,1),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 76,139,72,24 // mov 0x18(%rax),%r9 .byte 102,69,15,219,193 // pand %xmm9,%xmm8 .byte 102,65,15,56,51,208 // pmovzxwd %xmm8,%xmm2 .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 68,15,182,208 // movzbl %al,%r10d .byte 72,193,232,30 // shr $0x1e,%rax .byte 68,15,182,219 // movzbl %bl,%r11d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2 .byte 102,65,15,58,33,20,1,16 // insertps $0x10,(%r9,%rax,1),%xmm2 .byte 243,67,15,16,28,153 // movss (%r9,%r11,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 243,65,15,16,28,25 // movss (%r9,%rbx,1),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3 .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,65,15,235,216 // por %xmm8,%xmm3 .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,29,113,91,0,0 // mulps 0x5b71(%rip),%xmm3 # 8090 <_sk_clut_4D_sse41+0x17f2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax .byte 242,67,15,16,4,81 // movsd (%r9,%r10,2),%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,13 // jne 2541 <_sk_load_tables_u16_be_sse41+0x192> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,145,254,255,255 // jmpq 23d2 <_sk_load_tables_u16_be_sse41+0x23> .byte 102,67,15,22,68,81,8 // movhpd 0x8(%r9,%r10,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,124,254,255,255 // jb 23d2 <_sk_load_tables_u16_be_sse41+0x23> .byte 243,67,15,126,76,81,16 // movq 0x10(%r9,%r10,2),%xmm1 .byte 233,112,254,255,255 // jmpq 23d2 <_sk_load_tables_u16_be_sse41+0x23> HIDDEN _sk_load_tables_rgb_u16_be_sse41 .globl _sk_load_tables_rgb_u16_be_sse41 FUNCTION(_sk_load_tables_rgb_u16_be_sse41) _sk_load_tables_rgb_u16_be_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,83,1,0,0 // jne 26c7 <_sk_load_tables_rgb_u16_be_sse41+0x165> .byte 243,67,15,111,20,81 // movdqu (%r9,%r10,2),%xmm2 .byte 243,67,15,111,76,81,8 // movdqu 0x8(%r9,%r10,2),%xmm1 .byte 102,15,115,217,4 // psrldq $0x4,%xmm1 .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9 .byte 102,65,15,115,217,6 // psrldq $0x6,%xmm9 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,115,216,6 // psrldq $0x6,%xmm0 .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 .byte 102,68,15,111,5,230,90,0,0 // movdqa 0x5ae6(%rip),%xmm8 # 80a0 <_sk_clut_4D_sse41+0x1802> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 69,15,182,218 // movzbl %r10b,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 69,15,182,241 // movzbl %r9b,%r14d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 102,66,15,58,33,4,19,16 // insertps $0x10,(%rbx,%r10,1),%xmm0 .byte 243,66,15,16,28,179 // movss (%rbx,%r14,4),%xmm3 .byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0 .byte 243,66,15,16,28,11 // movss (%rbx,%r9,1),%xmm3 .byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0 .byte 102,15,56,0,13,149,90,0,0 // pshufb 0x5a95(%rip),%xmm1 # 80b0 <_sk_clut_4D_sse41+0x1812> .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1 .byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 68,15,182,211 // movzbl %bl,%r10d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 69,15,182,217 // movzbl %r9b,%r11d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 243,67,15,16,12,151 // movss (%r15,%r10,4),%xmm1 .byte 102,65,15,58,33,12,31,16 // insertps $0x10,(%r15,%rbx,1),%xmm1 .byte 243,67,15,16,28,159 // movss (%r15,%r11,4),%xmm3 .byte 102,15,58,33,203,32 // insertps $0x20,%xmm3,%xmm1 .byte 243,67,15,16,28,15 // movss (%r15,%r9,1),%xmm3 .byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1 .byte 76,139,72,24 // mov 0x18(%rax),%r9 .byte 102,65,15,105,209 // punpckhwd %xmm9,%xmm2 .byte 102,65,15,219,208 // pand %xmm8,%xmm2 .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2 .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 68,15,182,208 // movzbl %al,%r10d .byte 72,193,232,30 // shr $0x1e,%rax .byte 68,15,182,219 // movzbl %bl,%r11d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2 .byte 102,65,15,58,33,20,1,16 // insertps $0x10,(%r9,%rax,1),%xmm2 .byte 243,67,15,16,28,153 // movss (%r9,%r11,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 243,65,15,16,28,25 // movss (%r9,%rbx,1),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,0,90,0,0 // movaps 0x5a00(%rip),%xmm3 # 80c0 <_sk_clut_4D_sse41+0x1822> .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax .byte 102,67,15,110,20,81 // movd (%r9,%r10,2),%xmm2 .byte 102,67,15,196,84,81,4,2 // pinsrw $0x2,0x4(%r9,%r10,2),%xmm2 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,14 // jne 26ed <_sk_load_tables_rgb_u16_be_sse41+0x18b> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 233,173,254,255,255 // jmpq 259a <_sk_load_tables_rgb_u16_be_sse41+0x38> .byte 102,71,15,110,76,81,6 // movd 0x6(%r9,%r10,2),%xmm9 .byte 102,71,15,196,76,81,10,2 // pinsrw $0x2,0xa(%r9,%r10,2),%xmm9 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,24 // jb 271e <_sk_load_tables_rgb_u16_be_sse41+0x1bc> .byte 102,67,15,110,76,81,12 // movd 0xc(%r9,%r10,2),%xmm1 .byte 102,67,15,196,76,81,16,2 // pinsrw $0x2,0x10(%r9,%r10,2),%xmm1 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 233,124,254,255,255 // jmpq 259a <_sk_load_tables_rgb_u16_be_sse41+0x38> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,115,254,255,255 // jmpq 259a <_sk_load_tables_rgb_u16_be_sse41+0x38> HIDDEN _sk_byte_tables_sse41 .globl _sk_byte_tables_sse41 FUNCTION(_sk_byte_tables_sse41) _sk_byte_tables_sse41: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,152,89,0,0 // movaps 0x5998(%rip),%xmm8 # 80d0 <_sk_clut_4D_sse41+0x1832> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 69,137,222 // mov %r11d,%r14d .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,139,32 // mov (%rax),%r12 .byte 76,139,120,8 // mov 0x8(%rax),%r15 .byte 102,67,15,58,32,4,52,0 // pinsrb $0x0,(%r12,%r14,1),%xmm0 .byte 102,67,15,58,32,4,28,1 // pinsrb $0x1,(%r12,%r11,1),%xmm0 .byte 67,15,182,28,20 // movzbl (%r12,%r10,1),%ebx .byte 102,15,58,32,195,2 // pinsrb $0x2,%ebx,%xmm0 .byte 67,15,182,28,12 // movzbl (%r12,%r9,1),%ebx .byte 102,15,58,32,195,3 // pinsrb $0x3,%ebx,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,13,73,89,0,0 // movaps 0x5949(%rip),%xmm9 # 80e0 <_sk_clut_4D_sse41+0x1842> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,72,15,58,22,203,1 // pextrq $0x1,%xmm1,%rbx .byte 65,137,217 // mov %ebx,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 69,137,211 // mov %r10d,%r11d .byte 73,193,234,32 // shr $0x20,%r10 .byte 102,67,15,58,32,12,31,0 // pinsrb $0x0,(%r15,%r11,1),%xmm1 .byte 102,67,15,58,32,12,23,1 // pinsrb $0x1,(%r15,%r10,1),%xmm1 .byte 71,15,182,12,15 // movzbl (%r15,%r9,1),%r9d .byte 102,65,15,58,32,201,2 // pinsrb $0x2,%r9d,%xmm1 .byte 65,15,182,28,31 // movzbl (%r15,%rbx,1),%ebx .byte 102,15,58,32,203,3 // pinsrb $0x3,%ebx,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 76,139,88,16 // mov 0x10(%rax),%r11 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 102,73,15,58,22,209,1 // pextrq $0x1,%xmm2,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 65,137,222 // mov %ebx,%r14d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,67,15,58,32,20,51,0 // pinsrb $0x0,(%r11,%r14,1),%xmm2 .byte 102,65,15,58,32,20,27,1 // pinsrb $0x1,(%r11,%rbx,1),%xmm2 .byte 67,15,182,28,19 // movzbl (%r11,%r10,1),%ebx .byte 102,15,58,32,211,2 // pinsrb $0x2,%ebx,%xmm2 .byte 67,15,182,28,11 // movzbl (%r11,%r9,1),%ebx .byte 102,15,58,32,211,3 // pinsrb $0x3,%ebx,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 .byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx .byte 65,137,217 // mov %ebx,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,72,15,126,216 // movq %xmm3,%rax .byte 65,137,195 // mov %eax,%r11d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,67,15,58,32,28,26,0 // pinsrb $0x0,(%r10,%r11,1),%xmm3 .byte 102,65,15,58,32,28,2,1 // pinsrb $0x1,(%r10,%rax,1),%xmm3 .byte 67,15,182,4,10 // movzbl (%r10,%r9,1),%eax .byte 102,15,58,32,216,2 // pinsrb $0x2,%eax,%xmm3 .byte 65,15,182,4,26 // movzbl (%r10,%rbx,1),%eax .byte 102,15,58,32,216,3 // pinsrb $0x3,%eax,%xmm3 .byte 102,15,56,49,219 // pmovzxbd %xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,217 // mulps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax HIDDEN _sk_byte_tables_rgb_sse41 .globl _sk_byte_tables_rgb_sse41 FUNCTION(_sk_byte_tables_rgb_sse41) _sk_byte_tables_rgb_sse41: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,24 // mov 0x18(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 102,69,15,110,193 // movd %r9d,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 69,137,206 // mov %r9d,%r14d .byte 77,137,207 // mov %r9,%r15 .byte 73,193,239,32 // shr $0x20,%r15 .byte 76,139,32 // mov (%rax),%r12 .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 102,67,15,58,32,4,52,0 // pinsrb $0x0,(%r12,%r14,1),%xmm0 .byte 102,67,15,58,32,4,60,1 // pinsrb $0x1,(%r12,%r15,1),%xmm0 .byte 67,15,182,28,20 // movzbl (%r12,%r10,1),%ebx .byte 102,15,58,32,195,2 // pinsrb $0x2,%ebx,%xmm0 .byte 67,15,182,28,28 // movzbl (%r12,%r11,1),%ebx .byte 102,15,58,32,195,3 // pinsrb $0x3,%ebx,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,13,193,87,0,0 // movaps 0x57c1(%rip),%xmm9 # 80f0 <_sk_clut_4D_sse41+0x1852> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,72,15,58,22,203,1 // pextrq $0x1,%xmm1,%rbx .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,73,15,126,203 // movq %xmm1,%r11 .byte 69,137,222 // mov %r11d,%r14d .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,67,15,58,32,12,49,0 // pinsrb $0x0,(%r9,%r14,1),%xmm1 .byte 102,67,15,58,32,12,25,1 // pinsrb $0x1,(%r9,%r11,1),%xmm1 .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 102,65,15,58,32,202,2 // pinsrb $0x2,%r10d,%xmm1 .byte 65,15,182,28,25 // movzbl (%r9,%rbx,1),%ebx .byte 102,15,58,32,203,3 // pinsrb $0x3,%ebx,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx .byte 65,137,217 // mov %ebx,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 65,137,195 // mov %eax,%r11d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,67,15,58,32,20,26,0 // pinsrb $0x0,(%r10,%r11,1),%xmm2 .byte 102,65,15,58,32,20,2,1 // pinsrb $0x1,(%r10,%rax,1),%xmm2 .byte 67,15,182,4,10 // movzbl (%r10,%r9,1),%eax .byte 102,15,58,32,208,2 // pinsrb $0x2,%eax,%xmm2 .byte 65,15,182,4,26 // movzbl (%r10,%rbx,1),%eax .byte 102,15,58,32,208,3 // pinsrb $0x3,%eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_r_sse41 .globl _sk_table_r_sse41 FUNCTION(_sk_table_r_sse41) _sk_table_r_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,65,15,16,4,153 // movss (%r9,%rbx,4),%xmm0 .byte 102,67,15,58,33,4,153,16 // insertps $0x10,(%r9,%r11,4),%xmm0 .byte 243,71,15,16,4,145 // movss (%r9,%r10,4),%xmm8 .byte 102,65,15,58,33,192,32 // insertps $0x20,%xmm8,%xmm0 .byte 243,69,15,16,4,129 // movss (%r9,%rax,4),%xmm8 .byte 102,65,15,58,33,192,48 // insertps $0x30,%xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_table_g_sse41 .globl _sk_table_g_sse41 FUNCTION(_sk_table_g_sse41) _sk_table_g_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 102,65,15,91,200 // cvtps2dq %xmm8,%xmm1 .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,203 // movq %xmm1,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,65,15,16,12,153 // movss (%r9,%rbx,4),%xmm1 .byte 102,67,15,58,33,12,153,16 // insertps $0x10,(%r9,%r11,4),%xmm1 .byte 243,71,15,16,4,145 // movss (%r9,%r10,4),%xmm8 .byte 102,65,15,58,33,200,32 // insertps $0x20,%xmm8,%xmm1 .byte 243,69,15,16,4,129 // movss (%r9,%rax,4),%xmm8 .byte 102,65,15,58,33,200,48 // insertps $0x30,%xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_table_b_sse41 .globl _sk_table_b_sse41 FUNCTION(_sk_table_b_sse41) _sk_table_b_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 102,65,15,91,208 // cvtps2dq %xmm8,%xmm2 .byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,211 // movq %xmm2,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,65,15,16,20,153 // movss (%r9,%rbx,4),%xmm2 .byte 102,67,15,58,33,20,153,16 // insertps $0x10,(%r9,%r11,4),%xmm2 .byte 243,71,15,16,4,145 // movss (%r9,%r10,4),%xmm8 .byte 102,65,15,58,33,208,32 // insertps $0x20,%xmm8,%xmm2 .byte 243,69,15,16,4,129 // movss (%r9,%rax,4),%xmm8 .byte 102,65,15,58,33,208,48 // insertps $0x30,%xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_table_a_sse41 .globl _sk_table_a_sse41 FUNCTION(_sk_table_a_sse41) _sk_table_a_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3 .byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,219 // movq %xmm3,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,65,15,16,28,153 // movss (%r9,%rbx,4),%xmm3 .byte 102,67,15,58,33,28,153,16 // insertps $0x10,(%r9,%r11,4),%xmm3 .byte 243,71,15,16,4,145 // movss (%r9,%r10,4),%xmm8 .byte 102,65,15,58,33,216,32 // insertps $0x20,%xmm8,%xmm3 .byte 243,69,15,16,4,129 // movss (%r9,%rax,4),%xmm8 .byte 102,65,15,58,33,216,48 // insertps $0x30,%xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_r_sse41 .globl _sk_parametric_r_sse41 FUNCTION(_sk_parametric_r_sse41) _sk_parametric_r_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 65,15,194,192,2 // cmpleps %xmm8,%xmm0 .byte 243,68,15,16,64,24 // movss 0x18(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 243,68,15,16,24 // movss (%rax),%xmm11 .byte 243,68,15,16,64,8 // movss 0x8(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8 .byte 68,15,89,5,9,85,0,0 // mulps 0x5509(%rip),%xmm8 # 8100 <_sk_clut_4D_sse41+0x1862> .byte 68,15,84,21,17,85,0,0 // andps 0x5511(%rip),%xmm10 # 8110 <_sk_clut_4D_sse41+0x1872> .byte 68,15,86,21,25,85,0,0 // orps 0x5519(%rip),%xmm10 # 8120 <_sk_clut_4D_sse41+0x1882> .byte 68,15,88,5,33,85,0,0 // addps 0x5521(%rip),%xmm8 # 8130 <_sk_clut_4D_sse41+0x1892> .byte 68,15,40,37,41,85,0,0 // movaps 0x5529(%rip),%xmm12 # 8140 <_sk_clut_4D_sse41+0x18a2> .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 69,15,92,196 // subps %xmm12,%xmm8 .byte 68,15,88,21,41,85,0,0 // addps 0x5529(%rip),%xmm10 # 8150 <_sk_clut_4D_sse41+0x18b2> .byte 68,15,40,37,49,85,0,0 // movaps 0x5531(%rip),%xmm12 # 8160 <_sk_clut_4D_sse41+0x18c2> .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,92,196 // subps %xmm12,%xmm8 .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 68,15,88,5,30,85,0,0 // addps 0x551e(%rip),%xmm8 # 8170 <_sk_clut_4D_sse41+0x18d2> .byte 68,15,40,21,38,85,0,0 // movaps 0x5526(%rip),%xmm10 # 8180 <_sk_clut_4D_sse41+0x18e2> .byte 69,15,89,211 // mulps %xmm11,%xmm10 .byte 69,15,92,194 // subps %xmm10,%xmm8 .byte 68,15,40,21,38,85,0,0 // movaps 0x5526(%rip),%xmm10 # 8190 <_sk_clut_4D_sse41+0x18f2> .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 68,15,40,29,42,85,0,0 // movaps 0x552a(%rip),%xmm11 # 81a0 <_sk_clut_4D_sse41+0x1902> .byte 69,15,94,218 // divps %xmm10,%xmm11 .byte 69,15,88,216 // addps %xmm8,%xmm11 .byte 68,15,89,29,42,85,0,0 // mulps 0x552a(%rip),%xmm11 # 81b0 <_sk_clut_4D_sse41+0x1912> .byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10 .byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,88,194 // addps %xmm10,%xmm8 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 68,15,93,5,17,85,0,0 // minps 0x5511(%rip),%xmm8 # 81c0 <_sk_clut_4D_sse41+0x1922> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_g_sse41 .globl _sk_parametric_g_sse41 FUNCTION(_sk_parametric_g_sse41) _sk_parametric_g_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,194,194,2 // cmpleps %xmm10,%xmm0 .byte 243,15,16,72,24 // movss 0x18(%rax),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 243,15,16,72,8 // movss 0x8(%rax),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 68,15,88,217 // addps %xmm1,%xmm11 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12 .byte 68,15,89,37,178,84,0,0 // mulps 0x54b2(%rip),%xmm12 # 81d0 <_sk_clut_4D_sse41+0x1932> .byte 68,15,84,29,186,84,0,0 // andps 0x54ba(%rip),%xmm11 # 81e0 <_sk_clut_4D_sse41+0x1942> .byte 68,15,86,29,194,84,0,0 // orps 0x54c2(%rip),%xmm11 # 81f0 <_sk_clut_4D_sse41+0x1952> .byte 68,15,88,37,202,84,0,0 // addps 0x54ca(%rip),%xmm12 # 8200 <_sk_clut_4D_sse41+0x1962> .byte 15,40,13,211,84,0,0 // movaps 0x54d3(%rip),%xmm1 # 8210 <_sk_clut_4D_sse41+0x1972> .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 68,15,92,225 // subps %xmm1,%xmm12 .byte 68,15,88,29,211,84,0,0 // addps 0x54d3(%rip),%xmm11 # 8220 <_sk_clut_4D_sse41+0x1982> .byte 15,40,13,220,84,0,0 // movaps 0x54dc(%rip),%xmm1 # 8230 <_sk_clut_4D_sse41+0x1992> .byte 65,15,94,203 // divps %xmm11,%xmm1 .byte 68,15,92,225 // subps %xmm1,%xmm12 .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10 .byte 69,15,40,220 // movaps %xmm12,%xmm11 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 68,15,88,37,201,84,0,0 // addps 0x54c9(%rip),%xmm12 # 8240 <_sk_clut_4D_sse41+0x19a2> .byte 15,40,13,210,84,0,0 // movaps 0x54d2(%rip),%xmm1 # 8250 <_sk_clut_4D_sse41+0x19b2> .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 68,15,92,225 // subps %xmm1,%xmm12 .byte 68,15,40,21,210,84,0,0 // movaps 0x54d2(%rip),%xmm10 # 8260 <_sk_clut_4D_sse41+0x19c2> .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 15,40,13,215,84,0,0 // movaps 0x54d7(%rip),%xmm1 # 8270 <_sk_clut_4D_sse41+0x19d2> .byte 65,15,94,202 // divps %xmm10,%xmm1 .byte 65,15,88,204 // addps %xmm12,%xmm1 .byte 15,89,13,216,84,0,0 // mulps 0x54d8(%rip),%xmm1 # 8280 <_sk_clut_4D_sse41+0x19e2> .byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10 .byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,200 // maxps %xmm0,%xmm1 .byte 15,93,13,195,84,0,0 // minps 0x54c3(%rip),%xmm1 # 8290 <_sk_clut_4D_sse41+0x19f2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_b_sse41 .globl _sk_parametric_b_sse41 FUNCTION(_sk_parametric_b_sse41) _sk_parametric_b_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 65,15,194,194,2 // cmpleps %xmm10,%xmm0 .byte 243,15,16,80,24 // movss 0x18(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 68,15,88,202 // addps %xmm2,%xmm9 .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 68,15,88,218 // addps %xmm2,%xmm11 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12 .byte 68,15,89,37,100,84,0,0 // mulps 0x5464(%rip),%xmm12 # 82a0 <_sk_clut_4D_sse41+0x1a02> .byte 68,15,84,29,108,84,0,0 // andps 0x546c(%rip),%xmm11 # 82b0 <_sk_clut_4D_sse41+0x1a12> .byte 68,15,86,29,116,84,0,0 // orps 0x5474(%rip),%xmm11 # 82c0 <_sk_clut_4D_sse41+0x1a22> .byte 68,15,88,37,124,84,0,0 // addps 0x547c(%rip),%xmm12 # 82d0 <_sk_clut_4D_sse41+0x1a32> .byte 15,40,21,133,84,0,0 // movaps 0x5485(%rip),%xmm2 # 82e0 <_sk_clut_4D_sse41+0x1a42> .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 68,15,92,226 // subps %xmm2,%xmm12 .byte 68,15,88,29,133,84,0,0 // addps 0x5485(%rip),%xmm11 # 82f0 <_sk_clut_4D_sse41+0x1a52> .byte 15,40,21,142,84,0,0 // movaps 0x548e(%rip),%xmm2 # 8300 <_sk_clut_4D_sse41+0x1a62> .byte 65,15,94,211 // divps %xmm11,%xmm2 .byte 68,15,92,226 // subps %xmm2,%xmm12 .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10 .byte 69,15,40,220 // movaps %xmm12,%xmm11 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 68,15,88,37,123,84,0,0 // addps 0x547b(%rip),%xmm12 # 8310 <_sk_clut_4D_sse41+0x1a72> .byte 15,40,21,132,84,0,0 // movaps 0x5484(%rip),%xmm2 # 8320 <_sk_clut_4D_sse41+0x1a82> .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 68,15,92,226 // subps %xmm2,%xmm12 .byte 68,15,40,21,132,84,0,0 // movaps 0x5484(%rip),%xmm10 # 8330 <_sk_clut_4D_sse41+0x1a92> .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 15,40,21,137,84,0,0 // movaps 0x5489(%rip),%xmm2 # 8340 <_sk_clut_4D_sse41+0x1aa2> .byte 65,15,94,210 // divps %xmm10,%xmm2 .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 15,89,21,138,84,0,0 // mulps 0x548a(%rip),%xmm2 # 8350 <_sk_clut_4D_sse41+0x1ab2> .byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10 .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,208 // maxps %xmm0,%xmm2 .byte 15,93,21,117,84,0,0 // minps 0x5475(%rip),%xmm2 # 8360 <_sk_clut_4D_sse41+0x1ac2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_a_sse41 .globl _sk_parametric_a_sse41 FUNCTION(_sk_parametric_a_sse41) _sk_parametric_a_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,219 // mulps %xmm3,%xmm11 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 65,15,194,194,2 // cmpleps %xmm10,%xmm0 .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 68,15,88,203 // addps %xmm3,%xmm9 .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 243,15,16,88,8 // movss 0x8(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 68,15,88,219 // addps %xmm3,%xmm11 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12 .byte 68,15,89,37,22,84,0,0 // mulps 0x5416(%rip),%xmm12 # 8370 <_sk_clut_4D_sse41+0x1ad2> .byte 68,15,84,29,30,84,0,0 // andps 0x541e(%rip),%xmm11 # 8380 <_sk_clut_4D_sse41+0x1ae2> .byte 68,15,86,29,38,84,0,0 // orps 0x5426(%rip),%xmm11 # 8390 <_sk_clut_4D_sse41+0x1af2> .byte 68,15,88,37,46,84,0,0 // addps 0x542e(%rip),%xmm12 # 83a0 <_sk_clut_4D_sse41+0x1b02> .byte 15,40,29,55,84,0,0 // movaps 0x5437(%rip),%xmm3 # 83b0 <_sk_clut_4D_sse41+0x1b12> .byte 65,15,89,219 // mulps %xmm11,%xmm3 .byte 68,15,92,227 // subps %xmm3,%xmm12 .byte 68,15,88,29,55,84,0,0 // addps 0x5437(%rip),%xmm11 # 83c0 <_sk_clut_4D_sse41+0x1b22> .byte 15,40,29,64,84,0,0 // movaps 0x5440(%rip),%xmm3 # 83d0 <_sk_clut_4D_sse41+0x1b32> .byte 65,15,94,219 // divps %xmm11,%xmm3 .byte 68,15,92,227 // subps %xmm3,%xmm12 .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10 .byte 69,15,40,220 // movaps %xmm12,%xmm11 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 68,15,88,37,45,84,0,0 // addps 0x542d(%rip),%xmm12 # 83e0 <_sk_clut_4D_sse41+0x1b42> .byte 15,40,29,54,84,0,0 // movaps 0x5436(%rip),%xmm3 # 83f0 <_sk_clut_4D_sse41+0x1b52> .byte 65,15,89,219 // mulps %xmm11,%xmm3 .byte 68,15,92,227 // subps %xmm3,%xmm12 .byte 68,15,40,21,54,84,0,0 // movaps 0x5436(%rip),%xmm10 # 8400 <_sk_clut_4D_sse41+0x1b62> .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 15,40,29,59,84,0,0 // movaps 0x543b(%rip),%xmm3 # 8410 <_sk_clut_4D_sse41+0x1b72> .byte 65,15,94,218 // divps %xmm10,%xmm3 .byte 65,15,88,220 // addps %xmm12,%xmm3 .byte 15,89,29,60,84,0,0 // mulps 0x543c(%rip),%xmm3 # 8420 <_sk_clut_4D_sse41+0x1b82> .byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10 .byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,216 // maxps %xmm0,%xmm3 .byte 15,93,29,39,84,0,0 // minps 0x5427(%rip),%xmm3 # 8430 <_sk_clut_4D_sse41+0x1b92> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_gamma_sse41 .globl _sk_gamma_sse41 FUNCTION(_sk_gamma_sse41) _sk_gamma_sse41: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp) .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp) .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp) .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0 .byte 15,89,5,6,84,0,0 // mulps 0x5406(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba2> .byte 68,15,40,53,14,84,0,0 // movaps 0x540e(%rip),%xmm14 # 8450 <_sk_clut_4D_sse41+0x1bb2> .byte 65,15,84,214 // andps %xmm14,%xmm2 .byte 68,15,40,37,18,84,0,0 // movaps 0x5412(%rip),%xmm12 # 8460 <_sk_clut_4D_sse41+0x1bc2> .byte 65,15,86,212 // orps %xmm12,%xmm2 .byte 68,15,40,21,22,84,0,0 // movaps 0x5416(%rip),%xmm10 # 8470 <_sk_clut_4D_sse41+0x1bd2> .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,40,29,26,84,0,0 // movaps 0x541a(%rip),%xmm11 # 8480 <_sk_clut_4D_sse41+0x1be2> .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 65,15,89,227 // mulps %xmm11,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 68,15,40,13,24,84,0,0 // movaps 0x5418(%rip),%xmm9 # 8490 <_sk_clut_4D_sse41+0x1bf2> .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 68,15,40,45,28,84,0,0 // movaps 0x541c(%rip),%xmm13 # 84a0 <_sk_clut_4D_sse41+0x1c02> .byte 65,15,40,229 // movaps %xmm13,%xmm4 .byte 15,94,226 // divps %xmm2,%xmm4 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,92,196 // subps %xmm4,%xmm0 .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,40,53,255,83,0,0 // movaps 0x53ff(%rip),%xmm6 # 84b0 <_sk_clut_4D_sse41+0x1c12> .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,40,61,21,84,0,0 // movaps 0x5415(%rip),%xmm7 # 84d0 <_sk_clut_4D_sse41+0x1c32> .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 15,40,37,245,83,0,0 // movaps 0x53f5(%rip),%xmm4 # 84c0 <_sk_clut_4D_sse41+0x1c22> .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 68,15,40,61,7,84,0,0 // movaps 0x5407(%rip),%xmm15 # 84e0 <_sk_clut_4D_sse41+0x1c42> .byte 65,15,40,215 // movaps %xmm15,%xmm2 .byte 15,94,213 // divps %xmm5,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 .byte 15,89,5,83,83,0,0 // mulps 0x5353(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba2> .byte 65,15,84,206 // andps %xmm14,%xmm1 .byte 65,15,86,204 // orps %xmm12,%xmm1 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 65,15,89,235 // mulps %xmm11,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 65,15,40,237 // movaps %xmm13,%xmm5 .byte 15,94,233 // divps %xmm1,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,58,8,200,1 // roundps $0x1,%xmm0,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 68,15,40,206 // movaps %xmm6,%xmm9 .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,40,207 // movaps %xmm15,%xmm1 .byte 15,94,206 // divps %xmm6,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0 .byte 15,89,5,244,82,0,0 // mulps 0x52f4(%rip),%xmm0 # 8440 <_sk_clut_4D_sse41+0x1ba2> .byte 15,84,29,253,82,0,0 // andps 0x52fd(%rip),%xmm3 # 8450 <_sk_clut_4D_sse41+0x1bb2> .byte 65,15,86,220 // orps %xmm12,%xmm3 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,89,219 // mulps %xmm3,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 .byte 65,15,88,222 // addps %xmm14,%xmm3 .byte 68,15,94,235 // divps %xmm3,%xmm13 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,58,8,216,1 // roundps $0x1,%xmm0,%xmm3 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 68,15,94,255 // divps %xmm7,%xmm15 .byte 68,15,88,248 // addps %xmm0,%xmm15 .byte 15,40,5,85,83,0,0 // movaps 0x5355(%rip),%xmm0 # 84f0 <_sk_clut_4D_sse41+0x1c52> .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 68,15,89,248 // mulps %xmm0,%xmm15 .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,65,15,91,215 // cvtps2dq %xmm15,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3 .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4 .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5 .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6 .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_lab_to_xyz_sse41 .globl _sk_lab_to_xyz_sse41 FUNCTION(_sk_lab_to_xyz_sse41) _sk_lab_to_xyz_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 68,15,89,5,37,83,0,0 // mulps 0x5325(%rip),%xmm8 # 8500 <_sk_clut_4D_sse41+0x1c62> .byte 68,15,40,13,45,83,0,0 // movaps 0x532d(%rip),%xmm9 # 8510 <_sk_clut_4D_sse41+0x1c72> .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 15,40,5,50,83,0,0 // movaps 0x5332(%rip),%xmm0 # 8520 <_sk_clut_4D_sse41+0x1c82> .byte 15,88,200 // addps %xmm0,%xmm1 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 68,15,88,5,48,83,0,0 // addps 0x5330(%rip),%xmm8 # 8530 <_sk_clut_4D_sse41+0x1c92> .byte 68,15,89,5,56,83,0,0 // mulps 0x5338(%rip),%xmm8 # 8540 <_sk_clut_4D_sse41+0x1ca2> .byte 15,89,13,65,83,0,0 // mulps 0x5341(%rip),%xmm1 # 8550 <_sk_clut_4D_sse41+0x1cb2> .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 15,89,21,70,83,0,0 // mulps 0x5346(%rip),%xmm2 # 8560 <_sk_clut_4D_sse41+0x1cc2> .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 68,15,92,210 // subps %xmm2,%xmm10 .byte 68,15,40,217 // movaps %xmm1,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 68,15,40,13,58,83,0,0 // movaps 0x533a(%rip),%xmm9 # 8570 <_sk_clut_4D_sse41+0x1cd2> .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0 .byte 15,40,21,58,83,0,0 // movaps 0x533a(%rip),%xmm2 # 8580 <_sk_clut_4D_sse41+0x1ce2> .byte 15,88,202 // addps %xmm2,%xmm1 .byte 68,15,40,37,63,83,0,0 // movaps 0x533f(%rip),%xmm12 # 8590 <_sk_clut_4D_sse41+0x1cf2> .byte 65,15,89,204 // mulps %xmm12,%xmm1 .byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 .byte 102,69,15,56,20,195 // blendvps %xmm0,%xmm11,%xmm8 .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 .byte 69,15,89,218 // mulps %xmm10,%xmm11 .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9 .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2 .byte 15,89,13,248,82,0,0 // mulps 0x52f8(%rip),%xmm1 # 85a0 <_sk_clut_4D_sse41+0x1d02> .byte 15,89,21,1,83,0,0 // mulps 0x5301(%rip),%xmm2 # 85b0 <_sk_clut_4D_sse41+0x1d12> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_a8_sse41 .globl _sk_load_a8_sse41 FUNCTION(_sk_load_a8_sse41) _sk_load_a8_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,39 // jne 32f9 <_sk_load_a8_sse41+0x3f> .byte 102,67,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm0 .byte 102,15,219,5,223,82,0,0 // pand 0x52df(%rip),%xmm0 # 85c0 <_sk_clut_4D_sse41+0x1d22> .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 .byte 15,89,29,229,82,0,0 // mulps 0x52e5(%rip),%xmm3 # 85d0 <_sk_clut_4D_sse41+0x1d32> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 333b <_sk_load_a8_sse41+0x81> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3325 <_sk_load_a8_sse41+0x6b> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,195 // jne 32d9 <_sk_load_a8_sse41+0x1f> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0 .byte 235,158 // jmp 32d9 <_sk_load_a8_sse41+0x1f> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,147 // jmp 32d9 <_sk_load_a8_sse41+0x1f> HIDDEN _sk_load_a8_dst_sse41 .globl _sk_load_a8_dst_sse41 FUNCTION(_sk_load_a8_dst_sse41) _sk_load_a8_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,39 // jne 3385 <_sk_load_a8_dst_sse41+0x3f> .byte 102,67,15,56,49,36,25 // pmovzxbd (%r9,%r11,1),%xmm4 .byte 102,15,219,37,115,82,0,0 // pand 0x5273(%rip),%xmm4 # 85e0 <_sk_clut_4D_sse41+0x1d42> .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7 .byte 15,89,61,121,82,0,0 // mulps 0x5279(%rip),%xmm7 # 85f0 <_sk_clut_4D_sse41+0x1d52> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 15,87,246 // xorps %xmm6,%xmm6 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 33c7 <_sk_load_a8_dst_sse41+0x81> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 33b1 <_sk_load_a8_dst_sse41+0x6b> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,195 // jne 3365 <_sk_load_a8_dst_sse41+0x1f> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5 .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4 .byte 235,158 // jmp 3365 <_sk_load_a8_dst_sse41+0x1f> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 235,147 // jmp 3365 <_sk_load_a8_dst_sse41+0x1f> HIDDEN _sk_gather_a8_sse41 .globl _sk_gather_a8_sse41 FUNCTION(_sk_gather_a8_sse41) _sk_gather_a8_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,65,15,58,32,4,25,0 // pinsrb $0x0,(%r9,%rbx,1),%xmm0 .byte 102,67,15,58,32,4,25,1 // pinsrb $0x1,(%r9,%r11,1),%xmm0 .byte 67,15,182,28,17 // movzbl (%r9,%r10,1),%ebx .byte 102,15,58,32,195,2 // pinsrb $0x2,%ebx,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 .byte 15,89,29,190,81,0,0 // mulps 0x51be(%rip),%xmm3 # 8600 <_sk_clut_4D_sse41+0x1d62> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_a8_sse41 .globl _sk_store_a8_sse41 FUNCTION(_sk_store_a8_sse41) _sk_store_a8_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 68,15,40,5,163,81,0,0 // movaps 0x51a3(%rip),%xmm8 # 8610 <_sk_clut_4D_sse41+0x1d72> .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,13 // jne 3493 <_sk_store_a8_sse41+0x41> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 67,137,4,25 // mov %eax,(%r9,%r11,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,56,49,192 // pmovzxbd %xmm8,%xmm8 .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,41 // je 34cf <_sk_store_a8_sse41+0x7d> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,15 // je 34bb <_sk_store_a8_sse41+0x69> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,221 // jne 348f <_sk_store_a8_sse41+0x3d> .byte 102,71,15,58,20,68,25,2,8 // pextrb $0x8,%xmm8,0x2(%r9,%r11,1) .byte 102,68,15,56,0,5,91,81,0,0 // pshufb 0x515b(%rip),%xmm8 # 8620 <_sk_clut_4D_sse41+0x1d82> .byte 102,71,15,58,21,4,25,0 // pextrw $0x0,%xmm8,(%r9,%r11,1) .byte 235,192 // jmp 348f <_sk_store_a8_sse41+0x3d> .byte 102,71,15,58,20,4,25,0 // pextrb $0x0,%xmm8,(%r9,%r11,1) .byte 235,182 // jmp 348f <_sk_store_a8_sse41+0x3d> HIDDEN _sk_load_g8_sse41 .globl _sk_load_g8_sse41 FUNCTION(_sk_load_g8_sse41) _sk_load_g8_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,42 // jne 351b <_sk_load_g8_sse41+0x42> .byte 102,67,15,56,49,4,25 // pmovzxbd (%r9,%r11,1),%xmm0 .byte 102,15,219,5,48,81,0,0 // pand 0x5130(%rip),%xmm0 # 8630 <_sk_clut_4D_sse41+0x1d92> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,54,81,0,0 // mulps 0x5136(%rip),%xmm0 # 8640 <_sk_clut_4D_sse41+0x1da2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,61,81,0,0 // movaps 0x513d(%rip),%xmm3 # 8650 <_sk_clut_4D_sse41+0x1db2> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 355d <_sk_load_g8_sse41+0x84> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3547 <_sk_load_g8_sse41+0x6e> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,192 // jne 34f8 <_sk_load_g8_sse41+0x1f> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0 .byte 235,155 // jmp 34f8 <_sk_load_g8_sse41+0x1f> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,144 // jmp 34f8 <_sk_load_g8_sse41+0x1f> HIDDEN _sk_load_g8_dst_sse41 .globl _sk_load_g8_dst_sse41 FUNCTION(_sk_load_g8_dst_sse41) _sk_load_g8_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,42 // jne 35aa <_sk_load_g8_dst_sse41+0x42> .byte 102,67,15,56,49,36,25 // pmovzxbd (%r9,%r11,1),%xmm4 .byte 102,15,219,37,209,80,0,0 // pand 0x50d1(%rip),%xmm4 # 8660 <_sk_clut_4D_sse41+0x1dc2> .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,37,215,80,0,0 // mulps 0x50d7(%rip),%xmm4 # 8670 <_sk_clut_4D_sse41+0x1dd2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,61,222,80,0,0 // movaps 0x50de(%rip),%xmm7 # 8680 <_sk_clut_4D_sse41+0x1de2> .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 35ec <_sk_load_g8_dst_sse41+0x84> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 35d6 <_sk_load_g8_dst_sse41+0x6e> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,192 // jne 3587 <_sk_load_g8_dst_sse41+0x1f> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5 .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4 .byte 235,155 // jmp 3587 <_sk_load_g8_dst_sse41+0x1f> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 235,144 // jmp 3587 <_sk_load_g8_dst_sse41+0x1f> HIDDEN _sk_gather_g8_sse41 .globl _sk_gather_g8_sse41 FUNCTION(_sk_gather_g8_sse41) _sk_gather_g8_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,65,15,58,32,4,25,0 // pinsrb $0x0,(%r9,%rbx,1),%xmm0 .byte 102,67,15,58,32,4,25,1 // pinsrb $0x1,(%r9,%r11,1),%xmm0 .byte 67,15,182,28,17 // movzbl (%r9,%r10,1),%ebx .byte 102,15,58,32,195,2 // pinsrb $0x2,%ebx,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,41,80,0,0 // mulps 0x5029(%rip),%xmm0 # 8690 <_sk_clut_4D_sse41+0x1df2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,48,80,0,0 // movaps 0x5030(%rip),%xmm3 # 86a0 <_sk_clut_4D_sse41+0x1e02> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_load_565_sse41 .globl _sk_load_565_sse41 FUNCTION(_sk_load_565_sse41) _sk_load_565_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,80 // jne 36e4 <_sk_load_565_sse41+0x6b> .byte 102,67,15,56,51,20,89 // pmovzxwd (%r9,%r11,2),%xmm2 .byte 102,15,111,5,13,80,0,0 // movdqa 0x500d(%rip),%xmm0 # 86b0 <_sk_clut_4D_sse41+0x1e12> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,15,80,0,0 // mulps 0x500f(%rip),%xmm0 # 86c0 <_sk_clut_4D_sse41+0x1e22> .byte 102,15,111,13,23,80,0,0 // movdqa 0x5017(%rip),%xmm1 # 86d0 <_sk_clut_4D_sse41+0x1e32> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,25,80,0,0 // mulps 0x5019(%rip),%xmm1 # 86e0 <_sk_clut_4D_sse41+0x1e42> .byte 102,15,219,21,33,80,0,0 // pand 0x5021(%rip),%xmm2 # 86f0 <_sk_clut_4D_sse41+0x1e52> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,39,80,0,0 // mulps 0x5027(%rip),%xmm2 # 8700 <_sk_clut_4D_sse41+0x1e62> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,46,80,0,0 // movaps 0x502e(%rip),%xmm3 # 8710 <_sk_clut_4D_sse41+0x1e72> .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 3726 <_sk_load_565_sse41+0xad> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3710 <_sk_load_565_sse41+0x97> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,154 // jne 369b <_sk_load_565_sse41+0x22> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2 .byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2 .byte 233,117,255,255,255 // jmpq 369b <_sk_load_565_sse41+0x22> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 233,103,255,255,255 // jmpq 369b <_sk_load_565_sse41+0x22> HIDDEN _sk_load_565_dst_sse41 .globl _sk_load_565_dst_sse41 FUNCTION(_sk_load_565_dst_sse41) _sk_load_565_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,80 // jne 379f <_sk_load_565_dst_sse41+0x6b> .byte 102,67,15,56,51,52,89 // pmovzxwd (%r9,%r11,2),%xmm6 .byte 102,15,111,37,194,79,0,0 // movdqa 0x4fc2(%rip),%xmm4 # 8720 <_sk_clut_4D_sse41+0x1e82> .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,37,196,79,0,0 // mulps 0x4fc4(%rip),%xmm4 # 8730 <_sk_clut_4D_sse41+0x1e92> .byte 102,15,111,45,204,79,0,0 // movdqa 0x4fcc(%rip),%xmm5 # 8740 <_sk_clut_4D_sse41+0x1ea2> .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,45,206,79,0,0 // mulps 0x4fce(%rip),%xmm5 # 8750 <_sk_clut_4D_sse41+0x1eb2> .byte 102,15,219,53,214,79,0,0 // pand 0x4fd6(%rip),%xmm6 # 8760 <_sk_clut_4D_sse41+0x1ec2> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,53,220,79,0,0 // mulps 0x4fdc(%rip),%xmm6 # 8770 <_sk_clut_4D_sse41+0x1ed2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,61,227,79,0,0 // movaps 0x4fe3(%rip),%xmm7 # 8780 <_sk_clut_4D_sse41+0x1ee2> .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 37e1 <_sk_load_565_dst_sse41+0xad> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 37cb <_sk_load_565_dst_sse41+0x97> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,154 // jne 3756 <_sk_load_565_dst_sse41+0x22> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6 .byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4 .byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4 .byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6 .byte 233,117,255,255,255 // jmpq 3756 <_sk_load_565_dst_sse41+0x22> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,240 // movd %eax,%xmm6 .byte 233,103,255,255,255 // jmpq 3756 <_sk_load_565_dst_sse41+0x22> HIDDEN _sk_gather_565_sse41 .globl _sk_gather_565_sse41 FUNCTION(_sk_gather_565_sse41) _sk_gather_565_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,65,15,196,4,89,0 // pinsrw $0x0,(%r9,%rbx,2),%xmm0 .byte 102,67,15,196,4,89,1 // pinsrw $0x1,(%r9,%r11,2),%xmm0 .byte 67,15,183,28,81 // movzwl (%r9,%r10,2),%ebx .byte 102,15,196,195,2 // pinsrw $0x2,%ebx,%xmm0 .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0 .byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2 .byte 102,15,111,5,55,79,0,0 // movdqa 0x4f37(%rip),%xmm0 # 8790 <_sk_clut_4D_sse41+0x1ef2> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,57,79,0,0 // mulps 0x4f39(%rip),%xmm0 # 87a0 <_sk_clut_4D_sse41+0x1f02> .byte 102,15,111,13,65,79,0,0 // movdqa 0x4f41(%rip),%xmm1 # 87b0 <_sk_clut_4D_sse41+0x1f12> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,67,79,0,0 // mulps 0x4f43(%rip),%xmm1 # 87c0 <_sk_clut_4D_sse41+0x1f22> .byte 102,15,219,21,75,79,0,0 // pand 0x4f4b(%rip),%xmm2 # 87d0 <_sk_clut_4D_sse41+0x1f32> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,81,79,0,0 // mulps 0x4f51(%rip),%xmm2 # 87e0 <_sk_clut_4D_sse41+0x1f42> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,88,79,0,0 // movaps 0x4f58(%rip),%xmm3 # 87f0 <_sk_clut_4D_sse41+0x1f52> .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_565_sse41 .globl _sk_store_565_sse41 FUNCTION(_sk_store_565_sse41) _sk_store_565_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 68,15,40,5,71,79,0,0 // movaps 0x4f47(%rip),%xmm8 # 8800 <_sk_clut_4D_sse41+0x1f62> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,11 // pslld $0xb,%xmm9 .byte 68,15,40,21,60,79,0,0 // movaps 0x4f3c(%rip),%xmm10 # 8810 <_sk_clut_4D_sse41+0x1f72> .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,5 // pslld $0x5,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 .byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 390b <_sk_store_565_sse41+0x70> .byte 242,69,15,17,4,65 // movsd %xmm8,(%r9,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,56,51,192 // pmovzxwd %xmm8,%xmm8 .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,35 // je 3941 <_sk_store_565_sse41+0xa6> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,15 // je 3933 <_sk_store_565_sse41+0x98> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,221 // jne 3907 <_sk_store_565_sse41+0x6c> .byte 102,69,15,58,21,68,65,4,4 // pextrw $0x4,%xmm8,0x4(%r9,%rax,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,69,15,126,4,65 // movd %xmm8,(%r9,%rax,2) .byte 235,198 // jmp 3907 <_sk_store_565_sse41+0x6c> .byte 102,69,15,58,21,4,65,0 // pextrw $0x0,%xmm8,(%r9,%rax,2) .byte 235,188 // jmp 3907 <_sk_store_565_sse41+0x6c> HIDDEN _sk_load_4444_sse41 .globl _sk_load_4444_sse41 FUNCTION(_sk_load_4444_sse41) _sk_load_4444_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,95 // jne 39c5 <_sk_load_4444_sse41+0x7a> .byte 102,67,15,56,51,28,89 // pmovzxwd (%r9,%r11,2),%xmm3 .byte 102,15,111,5,171,78,0,0 // movdqa 0x4eab(%rip),%xmm0 # 8820 <_sk_clut_4D_sse41+0x1f82> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,173,78,0,0 // mulps 0x4ead(%rip),%xmm0 # 8830 <_sk_clut_4D_sse41+0x1f92> .byte 102,15,111,13,181,78,0,0 // movdqa 0x4eb5(%rip),%xmm1 # 8840 <_sk_clut_4D_sse41+0x1fa2> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,183,78,0,0 // mulps 0x4eb7(%rip),%xmm1 # 8850 <_sk_clut_4D_sse41+0x1fb2> .byte 102,15,111,21,191,78,0,0 // movdqa 0x4ebf(%rip),%xmm2 # 8860 <_sk_clut_4D_sse41+0x1fc2> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,193,78,0,0 // mulps 0x4ec1(%rip),%xmm2 # 8870 <_sk_clut_4D_sse41+0x1fd2> .byte 102,15,219,29,201,78,0,0 // pand 0x4ec9(%rip),%xmm3 # 8880 <_sk_clut_4D_sse41+0x1fe2> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,29,207,78,0,0 // mulps 0x4ecf(%rip),%xmm3 # 8890 <_sk_clut_4D_sse41+0x1ff2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 3a07 <_sk_load_4444_sse41+0xbc> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 39f1 <_sk_load_4444_sse41+0xa6> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,139 // jne 396d <_sk_load_4444_sse41+0x22> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3 .byte 233,102,255,255,255 // jmpq 396d <_sk_load_4444_sse41+0x22> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 233,88,255,255,255 // jmpq 396d <_sk_load_4444_sse41+0x22> HIDDEN _sk_load_4444_dst_sse41 .globl _sk_load_4444_dst_sse41 FUNCTION(_sk_load_4444_dst_sse41) _sk_load_4444_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,95 // jne 3a8f <_sk_load_4444_dst_sse41+0x7a> .byte 102,67,15,56,51,60,89 // pmovzxwd (%r9,%r11,2),%xmm7 .byte 102,15,111,37,97,78,0,0 // movdqa 0x4e61(%rip),%xmm4 # 88a0 <_sk_clut_4D_sse41+0x2002> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,37,99,78,0,0 // mulps 0x4e63(%rip),%xmm4 # 88b0 <_sk_clut_4D_sse41+0x2012> .byte 102,15,111,45,107,78,0,0 // movdqa 0x4e6b(%rip),%xmm5 # 88c0 <_sk_clut_4D_sse41+0x2022> .byte 102,15,219,239 // pand %xmm7,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,45,109,78,0,0 // mulps 0x4e6d(%rip),%xmm5 # 88d0 <_sk_clut_4D_sse41+0x2032> .byte 102,15,111,53,117,78,0,0 // movdqa 0x4e75(%rip),%xmm6 # 88e0 <_sk_clut_4D_sse41+0x2042> .byte 102,15,219,247 // pand %xmm7,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,53,119,78,0,0 // mulps 0x4e77(%rip),%xmm6 # 88f0 <_sk_clut_4D_sse41+0x2052> .byte 102,15,219,61,127,78,0,0 // pand 0x4e7f(%rip),%xmm7 # 8900 <_sk_clut_4D_sse41+0x2062> .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,89,61,133,78,0,0 // mulps 0x4e85(%rip),%xmm7 # 8910 <_sk_clut_4D_sse41+0x2072> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,53 // je 3ad1 <_sk_load_4444_dst_sse41+0xbc> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3abb <_sk_load_4444_dst_sse41+0xa6> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,139 // jne 3a37 <_sk_load_4444_dst_sse41+0x22> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4 .byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 .byte 233,102,255,255,255 // jmpq 3a37 <_sk_load_4444_dst_sse41+0x22> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,248 // movd %eax,%xmm7 .byte 233,88,255,255,255 // jmpq 3a37 <_sk_load_4444_dst_sse41+0x22> HIDDEN _sk_gather_4444_sse41 .globl _sk_gather_4444_sse41 FUNCTION(_sk_gather_4444_sse41) _sk_gather_4444_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,65,15,196,4,89,0 // pinsrw $0x0,(%r9,%rbx,2),%xmm0 .byte 102,67,15,196,4,89,1 // pinsrw $0x1,(%r9,%r11,2),%xmm0 .byte 67,15,183,28,81 // movzwl (%r9,%r10,2),%ebx .byte 102,15,196,195,2 // pinsrw $0x2,%ebx,%xmm0 .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0 .byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3 .byte 102,15,111,5,215,77,0,0 // movdqa 0x4dd7(%rip),%xmm0 # 8920 <_sk_clut_4D_sse41+0x2082> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,217,77,0,0 // mulps 0x4dd9(%rip),%xmm0 # 8930 <_sk_clut_4D_sse41+0x2092> .byte 102,15,111,13,225,77,0,0 // movdqa 0x4de1(%rip),%xmm1 # 8940 <_sk_clut_4D_sse41+0x20a2> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,227,77,0,0 // mulps 0x4de3(%rip),%xmm1 # 8950 <_sk_clut_4D_sse41+0x20b2> .byte 102,15,111,21,235,77,0,0 // movdqa 0x4deb(%rip),%xmm2 # 8960 <_sk_clut_4D_sse41+0x20c2> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,237,77,0,0 // mulps 0x4ded(%rip),%xmm2 # 8970 <_sk_clut_4D_sse41+0x20d2> .byte 102,15,219,29,245,77,0,0 // pand 0x4df5(%rip),%xmm3 # 8980 <_sk_clut_4D_sse41+0x20e2> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,29,251,77,0,0 // mulps 0x4dfb(%rip),%xmm3 # 8990 <_sk_clut_4D_sse41+0x20f2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_4444_sse41 .globl _sk_store_4444_sse41 FUNCTION(_sk_store_4444_sse41) _sk_store_4444_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 68,15,40,5,232,77,0,0 // movaps 0x4de8(%rip),%xmm8 # 89a0 <_sk_clut_4D_sse41+0x2102> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,12 // pslld $0xc,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,4 // pslld $0x4,%xmm9 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,86,193 // orpd %xmm9,%xmm8 .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 .byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 3c1e <_sk_store_4444_sse41+0x84> .byte 242,69,15,17,4,65 // movsd %xmm8,(%r9,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,56,51,192 // pmovzxwd %xmm8,%xmm8 .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,35 // je 3c54 <_sk_store_4444_sse41+0xba> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,15 // je 3c46 <_sk_store_4444_sse41+0xac> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,221 // jne 3c1a <_sk_store_4444_sse41+0x80> .byte 102,69,15,58,21,68,65,4,4 // pextrw $0x4,%xmm8,0x4(%r9,%rax,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,69,15,126,4,65 // movd %xmm8,(%r9,%rax,2) .byte 235,198 // jmp 3c1a <_sk_store_4444_sse41+0x80> .byte 102,69,15,58,21,4,65,0 // pextrw $0x0,%xmm8,(%r9,%rax,2) .byte 235,188 // jmp 3c1a <_sk_store_4444_sse41+0x80> HIDDEN _sk_load_8888_sse41 .globl _sk_load_8888_sse41 FUNCTION(_sk_load_8888_sse41) _sk_load_8888_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,89 // jne 3cd3 <_sk_load_8888_sse41+0x75> .byte 243,65,15,111,28,129 // movdqu (%r9,%rax,4),%xmm3 .byte 102,15,111,5,40,77,0,0 // movdqa 0x4d28(%rip),%xmm0 # 89b0 <_sk_clut_4D_sse41+0x2112> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,5,41,77,0,0 // movaps 0x4d29(%rip),%xmm8 # 89c0 <_sk_clut_4D_sse41+0x2122> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,56,0,13,40,77,0,0 // pshufb 0x4d28(%rip),%xmm1 # 89d0 <_sk_clut_4D_sse41+0x2132> .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,56,0,21,36,77,0,0 // pshufb 0x4d24(%rip),%xmm2 # 89e0 <_sk_clut_4D_sse41+0x2142> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,45 // je 3d0d <_sk_load_8888_sse41+0xaf> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 3cfc <_sk_load_8888_sse41+0x9e> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,144 // jne 3c80 <_sk_load_8888_sse41+0x22> .byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 243,65,15,126,4,129 // movq (%r9,%rax,4),%xmm0 .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3 .byte 233,115,255,255,255 // jmpq 3c80 <_sk_load_8888_sse41+0x22> .byte 102,65,15,110,28,129 // movd (%r9,%rax,4),%xmm3 .byte 233,104,255,255,255 // jmpq 3c80 <_sk_load_8888_sse41+0x22> HIDDEN _sk_load_8888_dst_sse41 .globl _sk_load_8888_dst_sse41 FUNCTION(_sk_load_8888_dst_sse41) _sk_load_8888_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,89 // jne 3d8d <_sk_load_8888_dst_sse41+0x75> .byte 243,65,15,111,60,129 // movdqu (%r9,%rax,4),%xmm7 .byte 102,15,111,37,174,76,0,0 // movdqa 0x4cae(%rip),%xmm4 # 89f0 <_sk_clut_4D_sse41+0x2152> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 68,15,40,5,175,76,0,0 // movaps 0x4caf(%rip),%xmm8 # 8a00 <_sk_clut_4D_sse41+0x2162> .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,15,111,239 // movdqa %xmm7,%xmm5 .byte 102,15,56,0,45,174,76,0,0 // pshufb 0x4cae(%rip),%xmm5 # 8a10 <_sk_clut_4D_sse41+0x2172> .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 .byte 102,15,56,0,53,170,76,0,0 // pshufb 0x4caa(%rip),%xmm6 # 8a20 <_sk_clut_4D_sse41+0x2182> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,15,114,215,24 // psrld $0x18,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 65,15,89,248 // mulps %xmm8,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,45 // je 3dc7 <_sk_load_8888_dst_sse41+0xaf> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 3db6 <_sk_load_8888_dst_sse41+0x9e> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,144 // jne 3d3a <_sk_load_8888_dst_sse41+0x22> .byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 243,65,15,126,36,129 // movq (%r9,%rax,4),%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 .byte 233,115,255,255,255 // jmpq 3d3a <_sk_load_8888_dst_sse41+0x22> .byte 102,65,15,110,60,129 // movd (%r9,%rax,4),%xmm7 .byte 233,104,255,255,255 // jmpq 3d3a <_sk_load_8888_dst_sse41+0x22> HIDDEN _sk_gather_8888_sse41 .globl _sk_gather_8888_sse41 FUNCTION(_sk_gather_8888_sse41) _sk_gather_8888_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,58,22,195,1 // pextrq $0x1,%xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,67,15,110,28,145 // movd (%r9,%r10,4),%xmm3 .byte 102,65,15,58,34,28,129,1 // pinsrd $0x1,(%r9,%rax,4),%xmm3 .byte 102,65,15,58,34,28,153,2 // pinsrd $0x2,(%r9,%rbx,4),%xmm3 .byte 102,67,15,58,34,28,153,3 // pinsrd $0x3,(%r9,%r11,4),%xmm3 .byte 102,15,111,5,253,75,0,0 // movdqa 0x4bfd(%rip),%xmm0 # 8a30 <_sk_clut_4D_sse41+0x2192> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,5,254,75,0,0 // movaps 0x4bfe(%rip),%xmm8 # 8a40 <_sk_clut_4D_sse41+0x21a2> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,56,0,13,253,75,0,0 // pshufb 0x4bfd(%rip),%xmm1 # 8a50 <_sk_clut_4D_sse41+0x21b2> .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,56,0,21,249,75,0,0 // pshufb 0x4bf9(%rip),%xmm2 # 8a60 <_sk_clut_4D_sse41+0x21c2> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_8888_sse41 .globl _sk_store_8888_sse41 FUNCTION(_sk_store_8888_sse41) _sk_store_8888_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 68,15,40,5,210,75,0,0 // movaps 0x4bd2(%rip),%xmm8 # 8a70 <_sk_clut_4D_sse41+0x21d2> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 102,69,15,235,194 // por %xmm10,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 3efe <_sk_store_8888_sse41+0x7f> .byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,29 // je 3f28 <_sk_store_8888_sse41+0xa9> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,15 // je 3f20 <_sk_store_8888_sse41+0xa1> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,227 // jne 3efa <_sk_store_8888_sse41+0x7b> .byte 102,69,15,58,22,68,129,8,2 // pextrd $0x2,%xmm8,0x8(%r9,%rax,4) .byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4) .byte 235,210 // jmp 3efa <_sk_store_8888_sse41+0x7b> .byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4) .byte 235,202 // jmp 3efa <_sk_store_8888_sse41+0x7b> HIDDEN _sk_load_bgra_sse41 .globl _sk_load_bgra_sse41 FUNCTION(_sk_load_bgra_sse41) _sk_load_bgra_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,89 // jne 3fa5 <_sk_load_bgra_sse41+0x75> .byte 243,65,15,111,28,129 // movdqu (%r9,%rax,4),%xmm3 .byte 102,15,111,5,38,75,0,0 // movdqa 0x4b26(%rip),%xmm0 # 8a80 <_sk_clut_4D_sse41+0x21e2> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2 .byte 68,15,40,5,39,75,0,0 // movaps 0x4b27(%rip),%xmm8 # 8a90 <_sk_clut_4D_sse41+0x21f2> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,56,0,5,38,75,0,0 // pshufb 0x4b26(%rip),%xmm0 # 8aa0 <_sk_clut_4D_sse41+0x2202> .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,56,0,5,34,75,0,0 // pshufb 0x4b22(%rip),%xmm0 # 8ab0 <_sk_clut_4D_sse41+0x2212> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,45 // je 3fdf <_sk_load_bgra_sse41+0xaf> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 3fce <_sk_load_bgra_sse41+0x9e> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,144 // jne 3f52 <_sk_load_bgra_sse41+0x22> .byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 243,65,15,126,4,129 // movq (%r9,%rax,4),%xmm0 .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3 .byte 233,115,255,255,255 // jmpq 3f52 <_sk_load_bgra_sse41+0x22> .byte 102,65,15,110,28,129 // movd (%r9,%rax,4),%xmm3 .byte 233,104,255,255,255 // jmpq 3f52 <_sk_load_bgra_sse41+0x22> HIDDEN _sk_load_bgra_dst_sse41 .globl _sk_load_bgra_dst_sse41 FUNCTION(_sk_load_bgra_dst_sse41) _sk_load_bgra_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,89 // jne 405f <_sk_load_bgra_dst_sse41+0x75> .byte 243,65,15,111,60,129 // movdqu (%r9,%rax,4),%xmm7 .byte 102,15,111,37,172,74,0,0 // movdqa 0x4aac(%rip),%xmm4 # 8ac0 <_sk_clut_4D_sse41+0x2222> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6 .byte 68,15,40,5,173,74,0,0 // movaps 0x4aad(%rip),%xmm8 # 8ad0 <_sk_clut_4D_sse41+0x2232> .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,56,0,37,172,74,0,0 // pshufb 0x4aac(%rip),%xmm4 # 8ae0 <_sk_clut_4D_sse41+0x2242> .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,56,0,37,168,74,0,0 // pshufb 0x4aa8(%rip),%xmm4 # 8af0 <_sk_clut_4D_sse41+0x2252> .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,15,114,215,24 // psrld $0x18,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 65,15,89,248 // mulps %xmm8,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,45 // je 4099 <_sk_load_bgra_dst_sse41+0xaf> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 4088 <_sk_load_bgra_dst_sse41+0x9e> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,144 // jne 400c <_sk_load_bgra_dst_sse41+0x22> .byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 243,65,15,126,36,129 // movq (%r9,%rax,4),%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 .byte 233,115,255,255,255 // jmpq 400c <_sk_load_bgra_dst_sse41+0x22> .byte 102,65,15,110,60,129 // movd (%r9,%rax,4),%xmm7 .byte 233,104,255,255,255 // jmpq 400c <_sk_load_bgra_dst_sse41+0x22> HIDDEN _sk_gather_bgra_sse41 .globl _sk_gather_bgra_sse41 FUNCTION(_sk_gather_bgra_sse41) _sk_gather_bgra_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,58,22,195,1 // pextrq $0x1,%xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,67,15,110,28,145 // movd (%r9,%r10,4),%xmm3 .byte 102,65,15,58,34,28,129,1 // pinsrd $0x1,(%r9,%rax,4),%xmm3 .byte 102,65,15,58,34,28,153,2 // pinsrd $0x2,(%r9,%rbx,4),%xmm3 .byte 102,67,15,58,34,28,153,3 // pinsrd $0x3,(%r9,%r11,4),%xmm3 .byte 102,15,111,5,251,73,0,0 // movdqa 0x49fb(%rip),%xmm0 # 8b00 <_sk_clut_4D_sse41+0x2262> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2 .byte 68,15,40,5,252,73,0,0 // movaps 0x49fc(%rip),%xmm8 # 8b10 <_sk_clut_4D_sse41+0x2272> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,56,0,5,251,73,0,0 // pshufb 0x49fb(%rip),%xmm0 # 8b20 <_sk_clut_4D_sse41+0x2282> .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,56,0,5,247,73,0,0 // pshufb 0x49f7(%rip),%xmm0 # 8b30 <_sk_clut_4D_sse41+0x2292> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_bgra_sse41 .globl _sk_store_bgra_sse41 FUNCTION(_sk_store_bgra_sse41) _sk_store_bgra_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 68,15,40,5,208,73,0,0 // movaps 0x49d0(%rip),%xmm8 # 8b40 <_sk_clut_4D_sse41+0x22a2> .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 102,69,15,235,194 // por %xmm10,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 41d0 <_sk_store_bgra_sse41+0x7f> .byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,29 // je 41fa <_sk_store_bgra_sse41+0xa9> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,15 // je 41f2 <_sk_store_bgra_sse41+0xa1> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,227 // jne 41cc <_sk_store_bgra_sse41+0x7b> .byte 102,69,15,58,22,68,129,8,2 // pextrd $0x2,%xmm8,0x8(%r9,%rax,4) .byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4) .byte 235,210 // jmp 41cc <_sk_store_bgra_sse41+0x7b> .byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4) .byte 235,202 // jmp 41cc <_sk_store_bgra_sse41+0x7b> HIDDEN _sk_load_f16_sse41 .globl _sk_load_f16_sse41 FUNCTION(_sk_load_f16_sse41) _sk_load_f16_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,62,1,0,0 // jne 4360 <_sk_load_f16_sse41+0x15e> .byte 102,65,15,16,4,193 // movupd (%r9,%rax,8),%xmm0 .byte 243,65,15,111,76,193,16 // movdqu 0x10(%r9,%rax,8),%xmm1 .byte 102,68,15,40,200 // movapd %xmm0,%xmm9 .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 .byte 102,68,15,97,216 // punpcklwd %xmm0,%xmm11 .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9 .byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1 .byte 102,68,15,111,5,245,72,0,0 // movdqa 0x48f5(%rip),%xmm8 # 8b50 <_sk_clut_4D_sse41+0x22b2> .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,65,15,219,208 // pand %xmm8,%xmm2 .byte 102,15,239,202 // pxor %xmm2,%xmm1 .byte 102,15,111,29,240,72,0,0 // movdqa 0x48f0(%rip),%xmm3 # 8b60 <_sk_clut_4D_sse41+0x22c2> .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0 .byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,15,235,202 // por %xmm2,%xmm1 .byte 102,68,15,111,21,220,72,0,0 // movdqa 0x48dc(%rip),%xmm10 # 8b70 <_sk_clut_4D_sse41+0x22d2> .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,15,219,193 // pand %xmm1,%xmm0 .byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11 .byte 102,69,15,56,51,219 // pmovzxwd %xmm11,%xmm11 .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2 .byte 102,65,15,219,208 // pand %xmm8,%xmm2 .byte 102,68,15,239,218 // pxor %xmm2,%xmm11 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,65,15,111,203 // movdqa %xmm11,%xmm1 .byte 102,15,56,63,203 // pmaxud %xmm3,%xmm1 .byte 102,65,15,118,203 // pcmpeqd %xmm11,%xmm1 .byte 102,65,15,114,243,13 // pslld $0xd,%xmm11 .byte 102,68,15,235,218 // por %xmm2,%xmm11 .byte 102,69,15,254,218 // paddd %xmm10,%xmm11 .byte 102,65,15,219,203 // pand %xmm11,%xmm1 .byte 102,69,15,56,51,217 // pmovzxwd %xmm9,%xmm11 .byte 102,69,15,111,227 // movdqa %xmm11,%xmm12 .byte 102,69,15,219,224 // pand %xmm8,%xmm12 .byte 102,69,15,239,220 // pxor %xmm12,%xmm11 .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2 .byte 102,15,56,63,211 // pmaxud %xmm3,%xmm2 .byte 102,65,15,118,211 // pcmpeqd %xmm11,%xmm2 .byte 102,65,15,114,243,13 // pslld $0xd,%xmm11 .byte 102,69,15,235,220 // por %xmm12,%xmm11 .byte 102,69,15,254,218 // paddd %xmm10,%xmm11 .byte 102,65,15,219,211 // pand %xmm11,%xmm2 .byte 102,65,15,115,217,8 // psrldq $0x8,%xmm9 .byte 102,69,15,56,51,201 // pmovzxwd %xmm9,%xmm9 .byte 102,69,15,219,193 // pand %xmm9,%xmm8 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,56,63,217 // pmaxud %xmm9,%xmm3 .byte 102,65,15,118,217 // pcmpeqd %xmm9,%xmm3 .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9 .byte 102,69,15,235,200 // por %xmm8,%xmm9 .byte 102,69,15,254,202 // paddd %xmm10,%xmm9 .byte 102,65,15,219,217 // pand %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,193 // movsd (%r9,%rax,8),%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,13 // jne 4379 <_sk_load_f16_sse41+0x177> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,182,254,255,255 // jmpq 422f <_sk_load_f16_sse41+0x2d> .byte 102,65,15,22,68,193,8 // movhpd 0x8(%r9,%rax,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,161,254,255,255 // jb 422f <_sk_load_f16_sse41+0x2d> .byte 243,65,15,126,76,193,16 // movq 0x10(%r9,%rax,8),%xmm1 .byte 233,149,254,255,255 // jmpq 422f <_sk_load_f16_sse41+0x2d> HIDDEN _sk_load_f16_dst_sse41 .globl _sk_load_f16_dst_sse41 FUNCTION(_sk_load_f16_dst_sse41) _sk_load_f16_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,62,1,0,0 // jne 44f8 <_sk_load_f16_dst_sse41+0x15e> .byte 102,65,15,16,36,193 // movupd (%r9,%rax,8),%xmm4 .byte 243,65,15,111,108,193,16 // movdqu 0x10(%r9,%rax,8),%xmm5 .byte 102,68,15,40,204 // movapd %xmm4,%xmm9 .byte 102,68,15,97,205 // punpcklwd %xmm5,%xmm9 .byte 102,15,105,229 // punpckhwd %xmm5,%xmm4 .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 .byte 102,68,15,97,220 // punpcklwd %xmm4,%xmm11 .byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9 .byte 102,65,15,56,51,235 // pmovzxwd %xmm11,%xmm5 .byte 102,68,15,111,5,141,71,0,0 // movdqa 0x478d(%rip),%xmm8 # 8b80 <_sk_clut_4D_sse41+0x22e2> .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,65,15,219,240 // pand %xmm8,%xmm6 .byte 102,15,239,238 // pxor %xmm6,%xmm5 .byte 102,15,111,61,136,71,0,0 // movdqa 0x4788(%rip),%xmm7 # 8b90 <_sk_clut_4D_sse41+0x22f2> .byte 102,15,114,246,16 // pslld $0x10,%xmm6 .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4 .byte 102,15,118,229 // pcmpeqd %xmm5,%xmm4 .byte 102,15,114,245,13 // pslld $0xd,%xmm5 .byte 102,15,235,238 // por %xmm6,%xmm5 .byte 102,68,15,111,21,116,71,0,0 // movdqa 0x4774(%rip),%xmm10 # 8ba0 <_sk_clut_4D_sse41+0x2302> .byte 102,65,15,254,234 // paddd %xmm10,%xmm5 .byte 102,15,219,229 // pand %xmm5,%xmm4 .byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11 .byte 102,69,15,56,51,219 // pmovzxwd %xmm11,%xmm11 .byte 102,65,15,111,243 // movdqa %xmm11,%xmm6 .byte 102,65,15,219,240 // pand %xmm8,%xmm6 .byte 102,68,15,239,222 // pxor %xmm6,%xmm11 .byte 102,15,114,246,16 // pslld $0x10,%xmm6 .byte 102,65,15,111,235 // movdqa %xmm11,%xmm5 .byte 102,15,56,63,239 // pmaxud %xmm7,%xmm5 .byte 102,65,15,118,235 // pcmpeqd %xmm11,%xmm5 .byte 102,65,15,114,243,13 // pslld $0xd,%xmm11 .byte 102,68,15,235,222 // por %xmm6,%xmm11 .byte 102,69,15,254,218 // paddd %xmm10,%xmm11 .byte 102,65,15,219,235 // pand %xmm11,%xmm5 .byte 102,69,15,56,51,217 // pmovzxwd %xmm9,%xmm11 .byte 102,69,15,111,227 // movdqa %xmm11,%xmm12 .byte 102,69,15,219,224 // pand %xmm8,%xmm12 .byte 102,69,15,239,220 // pxor %xmm12,%xmm11 .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,65,15,111,243 // movdqa %xmm11,%xmm6 .byte 102,15,56,63,247 // pmaxud %xmm7,%xmm6 .byte 102,65,15,118,243 // pcmpeqd %xmm11,%xmm6 .byte 102,65,15,114,243,13 // pslld $0xd,%xmm11 .byte 102,69,15,235,220 // por %xmm12,%xmm11 .byte 102,69,15,254,218 // paddd %xmm10,%xmm11 .byte 102,65,15,219,243 // pand %xmm11,%xmm6 .byte 102,65,15,115,217,8 // psrldq $0x8,%xmm9 .byte 102,69,15,56,51,201 // pmovzxwd %xmm9,%xmm9 .byte 102,69,15,219,193 // pand %xmm9,%xmm8 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,56,63,249 // pmaxud %xmm9,%xmm7 .byte 102,65,15,118,249 // pcmpeqd %xmm9,%xmm7 .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9 .byte 102,69,15,235,200 // por %xmm8,%xmm9 .byte 102,69,15,254,202 // paddd %xmm10,%xmm9 .byte 102,65,15,219,249 // pand %xmm9,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 242,65,15,16,36,193 // movsd (%r9,%rax,8),%xmm4 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,13 // jne 4511 <_sk_load_f16_dst_sse41+0x177> .byte 243,15,126,228 // movq %xmm4,%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 233,182,254,255,255 // jmpq 43c7 <_sk_load_f16_dst_sse41+0x2d> .byte 102,65,15,22,100,193,8 // movhpd 0x8(%r9,%rax,8),%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,161,254,255,255 // jb 43c7 <_sk_load_f16_dst_sse41+0x2d> .byte 243,65,15,126,108,193,16 // movq 0x10(%r9,%rax,8),%xmm5 .byte 233,149,254,255,255 // jmpq 43c7 <_sk_load_f16_dst_sse41+0x2d> HIDDEN _sk_gather_f16_sse41 .globl _sk_gather_f16_sse41 FUNCTION(_sk_gather_f16_sse41) _sk_gather_f16_sse41: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,56,64,209 // pmulld %xmm1,%xmm2 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,58,22,195,1 // pextrq $0x1,%xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,67,15,126,4,217 // movq (%r9,%r11,8),%xmm0 .byte 243,65,15,126,12,217 // movq (%r9,%rbx,8),%xmm1 .byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1 .byte 243,65,15,126,4,193 // movq (%r9,%rax,8),%xmm0 .byte 243,67,15,126,20,209 // movq (%r9,%r10,8),%xmm2 .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2 .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9 .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9 .byte 102,15,105,209 // punpckhwd %xmm1,%xmm2 .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 .byte 102,68,15,97,218 // punpcklwd %xmm2,%xmm11 .byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9 .byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1 .byte 102,68,15,111,5,247,69,0,0 // movdqa 0x45f7(%rip),%xmm8 # 8bb0 <_sk_clut_4D_sse41+0x2312> .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,65,15,219,208 // pand %xmm8,%xmm2 .byte 102,15,239,202 // pxor %xmm2,%xmm1 .byte 102,15,111,29,242,69,0,0 // movdqa 0x45f2(%rip),%xmm3 # 8bc0 <_sk_clut_4D_sse41+0x2322> .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0 .byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,15,235,202 // por %xmm2,%xmm1 .byte 102,68,15,111,21,222,69,0,0 // movdqa 0x45de(%rip),%xmm10 # 8bd0 <_sk_clut_4D_sse41+0x2332> .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,15,219,193 // pand %xmm1,%xmm0 .byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11 .byte 102,69,15,56,51,219 // pmovzxwd %xmm11,%xmm11 .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2 .byte 102,65,15,219,208 // pand %xmm8,%xmm2 .byte 102,68,15,239,218 // pxor %xmm2,%xmm11 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,65,15,111,203 // movdqa %xmm11,%xmm1 .byte 102,15,56,63,203 // pmaxud %xmm3,%xmm1 .byte 102,65,15,118,203 // pcmpeqd %xmm11,%xmm1 .byte 102,65,15,114,243,13 // pslld $0xd,%xmm11 .byte 102,68,15,235,218 // por %xmm2,%xmm11 .byte 102,69,15,254,218 // paddd %xmm10,%xmm11 .byte 102,65,15,219,203 // pand %xmm11,%xmm1 .byte 102,69,15,56,51,217 // pmovzxwd %xmm9,%xmm11 .byte 102,69,15,111,227 // movdqa %xmm11,%xmm12 .byte 102,69,15,219,224 // pand %xmm8,%xmm12 .byte 102,69,15,239,220 // pxor %xmm12,%xmm11 .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2 .byte 102,15,56,63,211 // pmaxud %xmm3,%xmm2 .byte 102,65,15,118,211 // pcmpeqd %xmm11,%xmm2 .byte 102,65,15,114,243,13 // pslld $0xd,%xmm11 .byte 102,69,15,235,220 // por %xmm12,%xmm11 .byte 102,69,15,254,218 // paddd %xmm10,%xmm11 .byte 102,65,15,219,211 // pand %xmm11,%xmm2 .byte 102,65,15,115,217,8 // psrldq $0x8,%xmm9 .byte 102,69,15,56,51,201 // pmovzxwd %xmm9,%xmm9 .byte 102,69,15,219,193 // pand %xmm9,%xmm8 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,56,63,217 // pmaxud %xmm9,%xmm3 .byte 102,65,15,118,217 // pcmpeqd %xmm9,%xmm3 .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9 .byte 102,69,15,235,200 // por %xmm8,%xmm9 .byte 102,69,15,254,202 // paddd %xmm10,%xmm9 .byte 102,65,15,219,217 // pand %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_f16_sse41 .globl _sk_store_f16_sse41 FUNCTION(_sk_store_f16_sse41) _sk_store_f16_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 102,68,15,111,21,1,69,0,0 // movdqa 0x4501(%rip),%xmm10 # 8be0 <_sk_clut_4D_sse41+0x2342> .byte 102,68,15,111,216 // movdqa %xmm0,%xmm11 .byte 102,69,15,219,218 // pand %xmm10,%xmm11 .byte 102,68,15,111,232 // movdqa %xmm0,%xmm13 .byte 102,69,15,239,235 // pxor %xmm11,%xmm13 .byte 102,68,15,111,13,244,68,0,0 // movdqa 0x44f4(%rip),%xmm9 # 8bf0 <_sk_clut_4D_sse41+0x2352> .byte 102,65,15,114,211,16 // psrld $0x10,%xmm11 .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 .byte 102,69,15,102,197 // pcmpgtd %xmm13,%xmm8 .byte 102,65,15,114,213,13 // psrld $0xd,%xmm13 .byte 102,68,15,111,37,229,68,0,0 // movdqa 0x44e5(%rip),%xmm12 # 8c00 <_sk_clut_4D_sse41+0x2362> .byte 102,69,15,235,220 // por %xmm12,%xmm11 .byte 102,69,15,254,221 // paddd %xmm13,%xmm11 .byte 102,69,15,223,195 // pandn %xmm11,%xmm8 .byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8 .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11 .byte 102,69,15,219,218 // pand %xmm10,%xmm11 .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14 .byte 102,69,15,239,243 // pxor %xmm11,%xmm14 .byte 102,65,15,114,211,16 // psrld $0x10,%xmm11 .byte 102,69,15,111,233 // movdqa %xmm9,%xmm13 .byte 102,69,15,102,238 // pcmpgtd %xmm14,%xmm13 .byte 102,65,15,114,214,13 // psrld $0xd,%xmm14 .byte 102,69,15,235,220 // por %xmm12,%xmm11 .byte 102,69,15,254,222 // paddd %xmm14,%xmm11 .byte 102,69,15,223,235 // pandn %xmm11,%xmm13 .byte 102,69,15,56,43,237 // packusdw %xmm13,%xmm13 .byte 102,68,15,111,242 // movdqa %xmm2,%xmm14 .byte 102,69,15,219,242 // pand %xmm10,%xmm14 .byte 102,68,15,111,250 // movdqa %xmm2,%xmm15 .byte 102,69,15,239,254 // pxor %xmm14,%xmm15 .byte 102,65,15,114,214,16 // psrld $0x10,%xmm14 .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 .byte 102,69,15,102,223 // pcmpgtd %xmm15,%xmm11 .byte 102,65,15,114,215,13 // psrld $0xd,%xmm15 .byte 102,69,15,235,244 // por %xmm12,%xmm14 .byte 102,69,15,254,247 // paddd %xmm15,%xmm14 .byte 102,69,15,223,222 // pandn %xmm14,%xmm11 .byte 102,69,15,56,43,219 // packusdw %xmm11,%xmm11 .byte 102,68,15,219,211 // pand %xmm3,%xmm10 .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14 .byte 102,69,15,239,242 // pxor %xmm10,%xmm14 .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10 .byte 102,69,15,102,206 // pcmpgtd %xmm14,%xmm9 .byte 102,65,15,114,214,13 // psrld $0xd,%xmm14 .byte 102,69,15,235,212 // por %xmm12,%xmm10 .byte 102,69,15,254,214 // paddd %xmm14,%xmm10 .byte 102,69,15,223,202 // pandn %xmm10,%xmm9 .byte 102,69,15,56,43,201 // packusdw %xmm9,%xmm9 .byte 102,69,15,97,197 // punpcklwd %xmm13,%xmm8 .byte 102,69,15,97,217 // punpcklwd %xmm9,%xmm11 .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,69,15,98,203 // punpckldq %xmm11,%xmm9 .byte 77,133,192 // test %r8,%r8 .byte 117,21 // jne 4811 <_sk_store_f16_sse41+0x152> .byte 69,15,17,12,193 // movups %xmm9,(%r9,%rax,8) .byte 102,69,15,106,195 // punpckhdq %xmm11,%xmm8 .byte 243,69,15,127,68,193,16 // movdqu %xmm8,0x10(%r9,%rax,8) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,214,12,193 // movq %xmm9,(%r9,%rax,8) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 480d <_sk_store_f16_sse41+0x14e> .byte 102,69,15,23,76,193,8 // movhpd %xmm9,0x8(%r9,%rax,8) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 480d <_sk_store_f16_sse41+0x14e> .byte 102,69,15,106,195 // punpckhdq %xmm11,%xmm8 .byte 102,69,15,214,68,193,16 // movq %xmm8,0x10(%r9,%rax,8) .byte 235,213 // jmp 480d <_sk_store_f16_sse41+0x14e> HIDDEN _sk_load_u16_be_sse41 .globl _sk_load_u16_be_sse41 FUNCTION(_sk_load_u16_be_sse41) _sk_load_u16_be_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,185,0,0,0 // jne 4918 <_sk_load_u16_be_sse41+0xe0> .byte 102,65,15,16,4,65 // movupd (%r9,%rax,2),%xmm0 .byte 243,65,15,111,76,65,16 // movdqu 0x10(%r9,%rax,2),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,5,101,67,0,0 // movaps 0x4365(%rip),%xmm8 # 8c10 <_sk_clut_4D_sse41+0x2372> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,235,217 // por %xmm1,%xmm3 .byte 102,15,56,51,203 // pmovzxwd %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,65,15,235,209 // por %xmm9,%xmm2 .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,65,15,235,217 // por %xmm9,%xmm3 .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,65 // movsd (%r9,%rax,2),%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,13 // jne 4931 <_sk_load_u16_be_sse41+0xf9> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,59,255,255,255 // jmpq 486c <_sk_load_u16_be_sse41+0x34> .byte 102,65,15,22,68,65,8 // movhpd 0x8(%r9,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,38,255,255,255 // jb 486c <_sk_load_u16_be_sse41+0x34> .byte 243,65,15,126,76,65,16 // movq 0x10(%r9,%rax,2),%xmm1 .byte 233,26,255,255,255 // jmpq 486c <_sk_load_u16_be_sse41+0x34> HIDDEN _sk_load_rgb_u16_be_sse41 .globl _sk_load_rgb_u16_be_sse41 FUNCTION(_sk_load_rgb_u16_be_sse41) _sk_load_rgb_u16_be_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,137,208 // mov %rdx,%rax .byte 72,193,224,32 // shl $0x20,%rax .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,170,0,0,0 // jne 4a27 <_sk_load_rgb_u16_be_sse41+0xd5> .byte 243,65,15,111,20,65 // movdqu (%r9,%rax,2),%xmm2 .byte 243,65,15,111,92,65,8 // movdqu 0x8(%r9,%rax,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,115,216,6 // psrldq $0x6,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,115,217,6 // psrldq $0x6,%xmm1 .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,5,68,66,0,0 // movaps 0x4244(%rip),%xmm8 # 8c20 <_sk_clut_4D_sse41+0x2382> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,235,217 // por %xmm1,%xmm3 .byte 102,15,56,51,203 // pmovzxwd %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,113,243,8 // psllw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,235,211 // por %xmm3,%xmm2 .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,11,66,0,0 // movaps 0x420b(%rip),%xmm3 # 8c30 <_sk_clut_4D_sse41+0x2392> .byte 255,224 // jmpq *%rax .byte 102,65,15,110,20,65 // movd (%r9,%rax,2),%xmm2 .byte 102,65,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%rax,2),%xmm2 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,13 // jne 4a4c <_sk_load_rgb_u16_be_sse41+0xfa> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 233,85,255,255,255 // jmpq 49a1 <_sk_load_rgb_u16_be_sse41+0x4f> .byte 102,65,15,110,68,65,6 // movd 0x6(%r9,%rax,2),%xmm0 .byte 102,65,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,24 // jb 4a7d <_sk_load_rgb_u16_be_sse41+0x12b> .byte 102,65,15,110,92,65,12 // movd 0xc(%r9,%rax,2),%xmm3 .byte 102,65,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%rax,2),%xmm3 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,36,255,255,255 // jmpq 49a1 <_sk_load_rgb_u16_be_sse41+0x4f> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 233,27,255,255,255 // jmpq 49a1 <_sk_load_rgb_u16_be_sse41+0x4f> HIDDEN _sk_store_u16_be_sse41 .globl _sk_store_u16_be_sse41 FUNCTION(_sk_store_u16_be_sse41) _sk_store_u16_be_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 68,15,40,21,148,65,0,0 // movaps 0x4194(%rip),%xmm10 # 8c40 <_sk_clut_4D_sse41+0x23a2> .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,89,194 // mulps %xmm10,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8 .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 69,15,89,202 // mulps %xmm10,%xmm9 .byte 102,69,15,91,217 // cvtps2dq %xmm9,%xmm11 .byte 102,69,15,56,43,219 // packusdw %xmm11,%xmm11 .byte 102,69,15,111,203 // movdqa %xmm11,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11 .byte 102,69,15,235,217 // por %xmm9,%xmm11 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,202 // mulps %xmm10,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,69,15,56,43,201 // packusdw %xmm9,%xmm9 .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12 .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12 .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 .byte 102,69,15,235,204 // por %xmm12,%xmm9 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,69,15,56,43,210 // packusdw %xmm10,%xmm10 .byte 102,69,15,111,226 // movdqa %xmm10,%xmm12 .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12 .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10 .byte 102,69,15,235,212 // por %xmm12,%xmm10 .byte 102,69,15,97,195 // punpcklwd %xmm11,%xmm8 .byte 102,69,15,97,202 // punpcklwd %xmm10,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10 .byte 77,133,192 // test %r8,%r8 .byte 117,21 // jne 4b7a <_sk_store_u16_be_sse41+0xf4> .byte 69,15,17,20,65 // movups %xmm10,(%r9,%rax,2) .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 .byte 243,69,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,214,20,65 // movq %xmm10,(%r9,%rax,2) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 4b76 <_sk_store_u16_be_sse41+0xf0> .byte 102,69,15,23,84,65,8 // movhpd %xmm10,0x8(%r9,%rax,2) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 4b76 <_sk_store_u16_be_sse41+0xf0> .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 .byte 102,69,15,214,68,65,16 // movq %xmm8,0x10(%r9,%rax,2) .byte 235,213 // jmp 4b76 <_sk_store_u16_be_sse41+0xf0> HIDDEN _sk_load_f32_sse41 .globl _sk_load_f32_sse41 FUNCTION(_sk_load_f32_sse41) _sk_load_f32_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,66 // jne 4c0c <_sk_load_f32_sse41+0x6b> .byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0 .byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3 .byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 65,15,20,201 // unpcklps %xmm9,%xmm1 .byte 68,15,21,192 // unpckhps %xmm0,%xmm8 .byte 65,15,21,217 // unpckhps %xmm9,%xmm3 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 15,18,202 // movhlps %xmm2,%xmm1 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 65,15,18,216 // movhlps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,8 // jne 4c1e <_sk_load_f32_sse41+0x7d> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 235,190 // jmp 4bdc <_sk_load_f32_sse41+0x3b> .byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,8 // jb 4c32 <_sk_load_f32_sse41+0x91> .byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3 .byte 235,170 // jmp 4bdc <_sk_load_f32_sse41+0x3b> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 235,165 // jmp 4bdc <_sk_load_f32_sse41+0x3b> HIDDEN _sk_load_f32_dst_sse41 .globl _sk_load_f32_dst_sse41 FUNCTION(_sk_load_f32_dst_sse41) _sk_load_f32_dst_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,66 // jne 4ca2 <_sk_load_f32_dst_sse41+0x6b> .byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4 .byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7 .byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9 .byte 65,15,40,240 // movaps %xmm8,%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 65,15,20,233 // unpcklps %xmm9,%xmm5 .byte 68,15,21,196 // unpckhps %xmm4,%xmm8 .byte 65,15,21,249 // unpckhps %xmm9,%xmm7 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4 .byte 15,18,238 // movhlps %xmm6,%xmm5 .byte 65,15,40,240 // movaps %xmm8,%xmm6 .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6 .byte 65,15,18,248 // movhlps %xmm8,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,8 // jne 4cb4 <_sk_load_f32_dst_sse41+0x7d> .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 235,190 // jmp 4c72 <_sk_load_f32_dst_sse41+0x3b> .byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,8 // jb 4cc8 <_sk_load_f32_dst_sse41+0x91> .byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7 .byte 235,170 // jmp 4c72 <_sk_load_f32_dst_sse41+0x3b> .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 235,165 // jmp 4c72 <_sk_load_f32_dst_sse41+0x3b> HIDDEN _sk_store_f32_sse41 .globl _sk_store_f32_sse41 FUNCTION(_sk_store_f32_sse41) _sk_store_f32_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,20,201 // unpcklps %xmm1,%xmm9 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,20,195 // unpcklps %xmm3,%xmm8 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 68,15,21,209 // unpckhps %xmm1,%xmm10 .byte 68,15,40,218 // movaps %xmm2,%xmm11 .byte 68,15,21,219 // unpckhps %xmm3,%xmm11 .byte 69,15,40,225 // movaps %xmm9,%xmm12 .byte 102,69,15,20,224 // unpcklpd %xmm8,%xmm12 .byte 69,15,18,193 // movhlps %xmm9,%xmm8 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9 .byte 102,69,15,17,36,129 // movupd %xmm12,(%r9,%rax,4) .byte 77,133,192 // test %r8,%r8 .byte 117,29 // jne 4d4a <_sk_store_f32_sse41+0x7d> .byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10 .byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4) .byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4) .byte 102,69,15,17,84,129,48 // movupd %xmm10,0x30(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,246 // je 4d46 <_sk_store_f32_sse41+0x79> .byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,234 // jb 4d46 <_sk_store_f32_sse41+0x79> .byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4) .byte 235,225 // jmp 4d46 <_sk_store_f32_sse41+0x79> HIDDEN _sk_clamp_x_sse41 .globl _sk_clamp_x_sse41 FUNCTION(_sk_clamp_x_sse41) _sk_clamp_x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 68,15,93,192 // minps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_y_sse41 .globl _sk_clamp_y_sse41 FUNCTION(_sk_clamp_y_sse41) _sk_clamp_y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,193 // maxps %xmm1,%xmm8 .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 68,15,93,193 // minps %xmm1,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_sse41 .globl _sk_repeat_x_sse41 FUNCTION(_sk_repeat_x_sse41) _sk_repeat_x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 243,68,15,16,64,4 // movss 0x4(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 102,69,15,58,8,192,1 // roundps $0x1,%xmm8,%xmm8 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 68,15,93,192 // minps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_y_sse41 .globl _sk_repeat_y_sse41 FUNCTION(_sk_repeat_y_sse41) _sk_repeat_y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 243,68,15,16,64,4 // movss 0x4(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 102,69,15,58,8,192,1 // roundps $0x1,%xmm8,%xmm8 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,193 // maxps %xmm1,%xmm8 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 68,15,93,193 // minps %xmm1,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_sse41 .globl _sk_mirror_x_sse41 FUNCTION(_sk_mirror_x_sse41) _sk_mirror_x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 65,15,92,194 // subps %xmm10,%xmm0 .byte 243,69,15,88,192 // addss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 243,68,15,89,13,206,66,0,0 // mulss 0x42ce(%rip),%xmm9 # 9140 <_sk_clut_4D_sse41+0x28a2> .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,92,194 // subps %xmm10,%xmm0 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 68,15,84,200 // andps %xmm0,%xmm9 .byte 69,15,95,193 // maxps %xmm9,%xmm8 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,65,15,254,194 // paddd %xmm10,%xmm0 .byte 68,15,93,192 // minps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_y_sse41 .globl _sk_mirror_y_sse41 FUNCTION(_sk_mirror_y_sse41) _sk_mirror_y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 243,69,15,88,192 // addss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 243,68,15,89,13,96,66,0,0 // mulss 0x4260(%rip),%xmm9 # 9144 <_sk_clut_4D_sse41+0x28a6> .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 65,15,92,201 // subps %xmm9,%xmm1 .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 68,15,84,201 // andps %xmm1,%xmm9 .byte 69,15,95,193 // maxps %xmm9,%xmm8 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 68,15,93,193 // minps %xmm1,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_x_1_sse41 .globl _sk_clamp_x_1_sse41 FUNCTION(_sk_clamp_x_1_sse41) _sk_clamp_x_1_sse41: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 68,15,93,5,23,61,0,0 // minps 0x3d17(%rip),%xmm8 # 8c50 <_sk_clut_4D_sse41+0x23b2> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_1_sse41 .globl _sk_repeat_x_1_sse41 FUNCTION(_sk_repeat_x_1_sse41) _sk_repeat_x_1_sse41: .byte 102,68,15,58,8,192,1 // roundps $0x1,%xmm0,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_1_sse41 .globl _sk_mirror_x_1_sse41 FUNCTION(_sk_mirror_x_1_sse41) _sk_mirror_x_1_sse41: .byte 68,15,40,5,8,61,0,0 // movaps 0x3d08(%rip),%xmm8 # 8c60 <_sk_clut_4D_sse41+0x23c2> .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,13,12,61,0,0 // movaps 0x3d0c(%rip),%xmm9 # 8c70 <_sk_clut_4D_sse41+0x23d2> .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9 .byte 69,15,88,201 // addps %xmm9,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,92,192 // subps %xmm0,%xmm8 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_luminance_to_alpha_sse41 .globl _sk_luminance_to_alpha_sse41 FUNCTION(_sk_luminance_to_alpha_sse41) _sk_luminance_to_alpha_sse41: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,89,5,235,60,0,0 // mulps 0x3ceb(%rip),%xmm0 # 8c80 <_sk_clut_4D_sse41+0x23e2> .byte 15,89,13,244,60,0,0 // mulps 0x3cf4(%rip),%xmm1 # 8c90 <_sk_clut_4D_sse41+0x23f2> .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,89,29,250,60,0,0 // mulps 0x3cfa(%rip),%xmm3 # 8ca0 <_sk_clut_4D_sse41+0x2402> .byte 15,88,217 // addps %xmm1,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_translate_sse41 .globl _sk_matrix_translate_sse41 FUNCTION(_sk_matrix_translate_sse41) _sk_matrix_translate_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_scale_translate_sse41 .globl _sk_matrix_scale_translate_sse41 FUNCTION(_sk_matrix_scale_translate_sse41) _sk_matrix_scale_translate_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,8 // movss 0x8(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_2x3_sse41 .globl _sk_matrix_2x3_sse41 FUNCTION(_sk_matrix_2x3_sse41) _sk_matrix_2x3_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_3x4_sse41 .globl _sk_matrix_3x4_sse41 FUNCTION(_sk_matrix_3x4_sse41) _sk_matrix_3x4_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,36 // movss 0x24(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 68,15,89,226 // mulps %xmm2,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,217 // mulps %xmm9,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x5_sse41 .globl _sk_matrix_4x5_sse41 FUNCTION(_sk_matrix_4x5_sse41) _sk_matrix_4x5_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,32 // movss 0x20(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,48 // movss 0x30(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,64 // movss 0x40(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,68,15,16,80,20 // movss 0x14(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,36 // movss 0x24(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,52 // movss 0x34(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,68 // movss 0x44(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,56 // movss 0x38(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 243,68,15,16,112,72 // movss 0x48(%rax),%xmm14 .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,238 // addps %xmm14,%xmm13 .byte 68,15,89,226 // mulps %xmm2,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,217 // mulps %xmm9,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 243,68,15,16,88,12 // movss 0xc(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,28 // movss 0x1c(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 243,68,15,16,112,60 // movss 0x3c(%rax),%xmm14 .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14 .byte 243,68,15,16,120,76 // movss 0x4c(%rax),%xmm15 .byte 69,15,198,255,0 // shufps $0x0,%xmm15,%xmm15 .byte 68,15,89,243 // mulps %xmm3,%xmm14 .byte 69,15,88,247 // addps %xmm15,%xmm14 .byte 68,15,89,234 // mulps %xmm2,%xmm13 .byte 69,15,88,238 // addps %xmm14,%xmm13 .byte 69,15,89,225 // mulps %xmm9,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,40,219 // movaps %xmm11,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x3_sse41 .globl _sk_matrix_4x3_sse41 FUNCTION(_sk_matrix_4x3_sse41) _sk_matrix_4x3_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,32 // movss 0x20(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,36 // movss 0x24(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,68,15,16,80,40 // movss 0x28(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 65,15,89,217 // mulps %xmm9,%xmm3 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,68,15,16,80,28 // movss 0x1c(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,44 // movss 0x2c(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_perspective_sse41 .globl _sk_matrix_perspective_sse41 FUNCTION(_sk_matrix_perspective_sse41) _sk_matrix_perspective_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,83,202 // rcpps %xmm10,%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_gradient_sse41 .globl _sk_evenly_spaced_gradient_sse41 FUNCTION(_sk_evenly_spaced_gradient_sse41) _sk_evenly_spaced_gradient_sse41: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,139,24 // mov (%rax),%rbx .byte 76,139,112,8 // mov 0x8(%rax),%r14 .byte 72,255,203 // dec %rbx .byte 120,7 // js 5448 <_sk_evenly_spaced_gradient_sse41+0x1a> .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1 .byte 235,21 // jmp 545d <_sk_evenly_spaced_gradient_sse41+0x2f> .byte 73,137,217 // mov %rbx,%r9 .byte 73,209,233 // shr %r9 .byte 131,227,1 // and $0x1,%ebx .byte 76,9,203 // or %r9,%rbx .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1 .byte 243,15,88,201 // addss %xmm1,%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 102,73,15,126,203 // movq %xmm1,%r11 .byte 69,137,223 // mov %r11d,%r15d .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,71,15,16,4,190 // movss (%r14,%r15,4),%xmm8 .byte 102,71,15,58,33,4,158,16 // insertps $0x10,(%r14,%r11,4),%xmm8 .byte 243,67,15,16,12,150 // movss (%r14,%r10,4),%xmm1 .byte 102,68,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm8 .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1 .byte 102,68,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm8 .byte 72,139,88,40 // mov 0x28(%rax),%rbx .byte 243,70,15,16,12,187 // movss (%rbx,%r15,4),%xmm9 .byte 102,70,15,58,33,12,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm9 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 102,68,15,58,33,201,32 // insertps $0x20,%xmm1,%xmm9 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 102,68,15,58,33,201,48 // insertps $0x30,%xmm1,%xmm9 .byte 72,139,88,16 // mov 0x10(%rax),%rbx .byte 243,66,15,16,12,187 // movss (%rbx,%r15,4),%xmm1 .byte 102,66,15,58,33,12,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm1 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 72,139,88,48 // mov 0x30(%rax),%rbx .byte 243,70,15,16,20,187 // movss (%rbx,%r15,4),%xmm10 .byte 102,70,15,58,33,20,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm10 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 102,68,15,58,33,210,32 // insertps $0x20,%xmm2,%xmm10 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 102,68,15,58,33,210,48 // insertps $0x30,%xmm2,%xmm10 .byte 72,139,88,24 // mov 0x18(%rax),%rbx .byte 243,66,15,16,20,187 // movss (%rbx,%r15,4),%xmm2 .byte 102,66,15,58,33,20,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm2 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 72,139,88,56 // mov 0x38(%rax),%rbx .byte 243,70,15,16,28,187 // movss (%rbx,%r15,4),%xmm11 .byte 102,70,15,58,33,28,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm11 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 102,68,15,58,33,219,32 // insertps $0x20,%xmm3,%xmm11 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 102,68,15,58,33,219,48 // insertps $0x30,%xmm3,%xmm11 .byte 72,139,88,32 // mov 0x20(%rax),%rbx .byte 243,66,15,16,28,187 // movss (%rbx,%r15,4),%xmm3 .byte 102,66,15,58,33,28,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm3 .byte 243,70,15,16,36,147 // movss (%rbx,%r10,4),%xmm12 .byte 102,65,15,58,33,220,32 // insertps $0x20,%xmm12,%xmm3 .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12 .byte 102,65,15,58,33,220,48 // insertps $0x30,%xmm12,%xmm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 243,70,15,16,36,184 // movss (%rax,%r15,4),%xmm12 .byte 102,70,15,58,33,36,152,16 // insertps $0x10,(%rax,%r11,4),%xmm12 .byte 243,70,15,16,44,144 // movss (%rax,%r10,4),%xmm13 .byte 102,69,15,58,33,229,32 // insertps $0x20,%xmm13,%xmm12 .byte 243,70,15,16,44,136 // movss (%rax,%r9,4),%xmm13 .byte 102,69,15,58,33,229,48 // insertps $0x30,%xmm13,%xmm12 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 65,15,88,220 // addps %xmm12,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax HIDDEN _sk_gauss_a_to_rgba_sse41 .globl _sk_gauss_a_to_rgba_sse41 FUNCTION(_sk_gauss_a_to_rgba_sse41) _sk_gauss_a_to_rgba_sse41: .byte 15,40,5,165,54,0,0 // movaps 0x36a5(%rip),%xmm0 # 8cb0 <_sk_clut_4D_sse41+0x2412> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,171,54,0,0 // addps 0x36ab(%rip),%xmm0 # 8cc0 <_sk_clut_4D_sse41+0x2422> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,177,54,0,0 // addps 0x36b1(%rip),%xmm0 # 8cd0 <_sk_clut_4D_sse41+0x2432> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,183,54,0,0 // addps 0x36b7(%rip),%xmm0 # 8ce0 <_sk_clut_4D_sse41+0x2442> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,189,54,0,0 // addps 0x36bd(%rip),%xmm0 # 8cf0 <_sk_clut_4D_sse41+0x2452> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_gradient_sse41 .globl _sk_gradient_sse41 FUNCTION(_sk_gradient_sse41) _sk_gradient_sse41: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,249,2 // cmp $0x2,%r9 .byte 114,50 // jb 5686 <_sk_gradient_sse41+0x46> .byte 72,139,88,72 // mov 0x48(%rax),%rbx .byte 73,255,201 // dec %r9 .byte 72,131,195,4 // add $0x4,%rbx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,40,21,150,54,0,0 // movaps 0x3696(%rip),%xmm2 # 8d00 <_sk_clut_4D_sse41+0x2462> .byte 243,15,16,27 // movss (%rbx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,194,216,2 // cmpleps %xmm0,%xmm3 .byte 15,84,218 // andps %xmm2,%xmm3 .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 72,131,195,4 // add $0x4,%rbx .byte 73,255,201 // dec %r9 .byte 117,228 // jne 566a <_sk_gradient_sse41+0x2a> .byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 102,73,15,126,203 // movq %xmm1,%r11 .byte 69,137,222 // mov %r11d,%r14d .byte 73,193,235,32 // shr $0x20,%r11 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,70,15,16,4,179 // movss (%rbx,%r14,4),%xmm8 .byte 102,70,15,58,33,4,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm8 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 102,68,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm8 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 102,68,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm8 .byte 72,139,88,40 // mov 0x28(%rax),%rbx .byte 243,70,15,16,12,179 // movss (%rbx,%r14,4),%xmm9 .byte 102,70,15,58,33,12,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm9 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 102,68,15,58,33,201,32 // insertps $0x20,%xmm1,%xmm9 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 102,68,15,58,33,201,48 // insertps $0x30,%xmm1,%xmm9 .byte 243,67,15,16,12,183 // movss (%r15,%r14,4),%xmm1 .byte 102,67,15,58,33,12,159,16 // insertps $0x10,(%r15,%r11,4),%xmm1 .byte 243,67,15,16,20,151 // movss (%r15,%r10,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 243,67,15,16,20,143 // movss (%r15,%r9,4),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 72,139,88,48 // mov 0x30(%rax),%rbx .byte 243,70,15,16,20,179 // movss (%rbx,%r14,4),%xmm10 .byte 102,70,15,58,33,20,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm10 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 102,68,15,58,33,210,32 // insertps $0x20,%xmm2,%xmm10 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 102,68,15,58,33,210,48 // insertps $0x30,%xmm2,%xmm10 .byte 72,139,88,24 // mov 0x18(%rax),%rbx .byte 243,66,15,16,20,179 // movss (%rbx,%r14,4),%xmm2 .byte 102,66,15,58,33,20,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm2 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 72,139,88,56 // mov 0x38(%rax),%rbx .byte 243,70,15,16,28,179 // movss (%rbx,%r14,4),%xmm11 .byte 102,70,15,58,33,28,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm11 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 102,68,15,58,33,219,32 // insertps $0x20,%xmm3,%xmm11 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 102,68,15,58,33,219,48 // insertps $0x30,%xmm3,%xmm11 .byte 72,139,88,32 // mov 0x20(%rax),%rbx .byte 243,66,15,16,28,179 // movss (%rbx,%r14,4),%xmm3 .byte 102,66,15,58,33,28,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm3 .byte 243,70,15,16,36,147 // movss (%rbx,%r10,4),%xmm12 .byte 102,65,15,58,33,220,32 // insertps $0x20,%xmm12,%xmm3 .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12 .byte 102,65,15,58,33,220,48 // insertps $0x30,%xmm12,%xmm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 243,70,15,16,36,176 // movss (%rax,%r14,4),%xmm12 .byte 102,70,15,58,33,36,152,16 // insertps $0x10,(%rax,%r11,4),%xmm12 .byte 243,70,15,16,44,144 // movss (%rax,%r10,4),%xmm13 .byte 102,69,15,58,33,229,32 // insertps $0x20,%xmm13,%xmm12 .byte 243,70,15,16,44,136 // movss (%rax,%r9,4),%xmm13 .byte 102,69,15,58,33,229,48 // insertps $0x30,%xmm13,%xmm12 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 65,15,88,220 // addps %xmm12,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_2_stop_gradient_sse41 .globl _sk_evenly_spaced_2_stop_gradient_sse41 FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse41) _sk_evenly_spaced_2_stop_gradient_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,68,15,16,72,28 // movss 0x1c(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_unit_angle_sse41 .globl _sk_xy_to_unit_angle_sse41 FUNCTION(_sk_xy_to_unit_angle_sse41) _sk_xy_to_unit_angle_sse41: .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,84,193 // andps %xmm9,%xmm0 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 68,15,92,217 // subps %xmm1,%xmm11 .byte 68,15,84,217 // andps %xmm1,%xmm11 .byte 68,15,40,224 // movaps %xmm0,%xmm12 .byte 69,15,93,227 // minps %xmm11,%xmm12 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 69,15,95,211 // maxps %xmm11,%xmm10 .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 69,15,89,237 // mulps %xmm13,%xmm13 .byte 68,15,40,21,55,52,0,0 // movaps 0x3437(%rip),%xmm10 # 8d10 <_sk_clut_4D_sse41+0x2472> .byte 69,15,89,213 // mulps %xmm13,%xmm10 .byte 68,15,88,21,59,52,0,0 // addps 0x343b(%rip),%xmm10 # 8d20 <_sk_clut_4D_sse41+0x2482> .byte 69,15,89,213 // mulps %xmm13,%xmm10 .byte 68,15,88,21,63,52,0,0 // addps 0x343f(%rip),%xmm10 # 8d30 <_sk_clut_4D_sse41+0x2492> .byte 69,15,89,213 // mulps %xmm13,%xmm10 .byte 68,15,88,21,67,52,0,0 // addps 0x3443(%rip),%xmm10 # 8d40 <_sk_clut_4D_sse41+0x24a2> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0 .byte 68,15,40,29,66,52,0,0 // movaps 0x3442(%rip),%xmm11 # 8d50 <_sk_clut_4D_sse41+0x24b2> .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9 .byte 68,15,40,29,59,52,0,0 // movaps 0x343b(%rip),%xmm11 # 8d60 <_sk_clut_4D_sse41+0x24c2> .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0 .byte 68,15,40,13,45,52,0,0 // movaps 0x342d(%rip),%xmm9 # 8d70 <_sk_clut_4D_sse41+0x24d2> .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10 .byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8 .byte 69,15,84,194 // andps %xmm10,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_radius_sse41 .globl _sk_xy_to_radius_sse41 FUNCTION(_sk_xy_to_radius_sse41) _sk_xy_to_radius_sse41: .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,88,192 // addps %xmm0,%xmm8 .byte 65,15,81,192 // sqrtps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_max_sse41 .globl _sk_xy_to_2pt_conical_quadratic_max_sse41 FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_sse41) _sk_xy_to_2pt_conical_quadratic_max_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,32 // movss 0x20(%rax),%xmm10 .byte 243,68,15,16,64,36 // movss 0x24(%rax),%xmm8 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,40 // movss 0x28(%rax),%xmm11 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,13,214,51,0,0 // mulps 0x33d6(%rip),%xmm9 # 8d80 <_sk_clut_4D_sse41+0x24e2> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 68,15,89,21,193,51,0,0 // mulps 0x33c1(%rip),%xmm10 # 8d90 <_sk_clut_4D_sse41+0x24f2> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,81,208 // sqrtps %xmm0,%xmm10 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 68,15,87,13,169,51,0,0 // xorps 0x33a9(%rip),%xmm9 # 8da0 <_sk_clut_4D_sse41+0x2502> .byte 68,15,89,5,177,51,0,0 // mulps 0x33b1(%rip),%xmm8 # 8db0 <_sk_clut_4D_sse41+0x2512> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 65,15,95,193 // maxps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_min_sse41 .globl _sk_xy_to_2pt_conical_quadratic_min_sse41 FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_sse41) _sk_xy_to_2pt_conical_quadratic_min_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,32 // movss 0x20(%rax),%xmm10 .byte 243,68,15,16,64,36 // movss 0x24(%rax),%xmm8 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,40 // movss 0x28(%rax),%xmm11 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,13,120,51,0,0 // mulps 0x3378(%rip),%xmm9 # 8dc0 <_sk_clut_4D_sse41+0x2522> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 68,15,89,21,99,51,0,0 // mulps 0x3363(%rip),%xmm10 # 8dd0 <_sk_clut_4D_sse41+0x2532> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,81,208 // sqrtps %xmm0,%xmm10 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 68,15,87,13,75,51,0,0 // xorps 0x334b(%rip),%xmm9 # 8de0 <_sk_clut_4D_sse41+0x2542> .byte 68,15,89,5,83,51,0,0 // mulps 0x3353(%rip),%xmm8 # 8df0 <_sk_clut_4D_sse41+0x2552> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 65,15,93,193 // minps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_linear_sse41 .globl _sk_xy_to_2pt_conical_linear_sse41 FUNCTION(_sk_xy_to_2pt_conical_linear_sse41) _sk_xy_to_2pt_conical_linear_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,40 // movss 0x28(%rax),%xmm8 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 243,69,15,89,200 // mulss %xmm8,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,13,43,51,0,0 // mulps 0x332b(%rip),%xmm9 # 8e00 <_sk_clut_4D_sse41+0x2562> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 243,69,15,89,192 // mulss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 15,87,5,23,51,0,0 // xorps 0x3317(%rip),%xmm0 # 8e10 <_sk_clut_4D_sse41+0x2572> .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mask_2pt_conical_degenerates_sse41 .globl _sk_mask_2pt_conical_degenerates_sse41 FUNCTION(_sk_mask_2pt_conical_degenerates_sse41) _sk_mask_2pt_conical_degenerates_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,40 // movss 0x28(%rax),%xmm8 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 69,15,194,208,7 // cmpordps %xmm8,%xmm10 .byte 69,15,194,193,2 // cmpleps %xmm9,%xmm8 .byte 69,15,84,194 // andps %xmm10,%xmm8 .byte 68,15,17,0 // movups %xmm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_apply_vector_mask_sse41 .globl _sk_apply_vector_mask_sse41 FUNCTION(_sk_apply_vector_mask_sse41) _sk_apply_vector_mask_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,16,0 // movups (%rax),%xmm8 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 65,15,84,200 // andps %xmm8,%xmm1 .byte 65,15,84,208 // andps %xmm8,%xmm2 .byte 65,15,84,216 // andps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_save_xy_sse41 .globl _sk_save_xy_sse41 FUNCTION(_sk_save_xy_sse41) _sk_save_xy_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,189,50,0,0 // movaps 0x32bd(%rip),%xmm8 # 8e20 <_sk_clut_4D_sse41+0x2582> .byte 15,17,0 // movups %xmm0,(%rax) .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 102,69,15,58,8,209,1 // roundps $0x1,%xmm9,%xmm10 .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10 .byte 69,15,92,194 // subps %xmm10,%xmm8 .byte 15,17,72,32 // movups %xmm1,0x20(%rax) .byte 68,15,17,72,64 // movups %xmm9,0x40(%rax) .byte 68,15,17,64,96 // movups %xmm8,0x60(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_accumulate_sse41 .globl _sk_accumulate_sse41 FUNCTION(_sk_accumulate_sse41) _sk_accumulate_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 .byte 68,15,16,136,160,0,0,0 // movups 0xa0(%rax),%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 65,15,88,224 // addps %xmm8,%xmm4 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 65,15,88,232 // addps %xmm8,%xmm5 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 65,15,88,240 // addps %xmm8,%xmm6 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 65,15,88,249 // addps %xmm9,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_nx_sse41 .globl _sk_bilinear_nx_sse41 FUNCTION(_sk_bilinear_nx_sse41) _sk_bilinear_nx_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,63,50,0,0 // addps 0x323f(%rip),%xmm0 # 8e30 <_sk_clut_4D_sse41+0x2592> .byte 68,15,40,13,71,50,0,0 // movaps 0x3247(%rip),%xmm9 # 8e40 <_sk_clut_4D_sse41+0x25a2> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_px_sse41 .globl _sk_bilinear_px_sse41 FUNCTION(_sk_bilinear_px_sse41) _sk_bilinear_px_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,54,50,0,0 // addps 0x3236(%rip),%xmm0 # 8e50 <_sk_clut_4D_sse41+0x25b2> .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_ny_sse41 .globl _sk_bilinear_ny_sse41 FUNCTION(_sk_bilinear_ny_sse41) _sk_bilinear_ny_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,40,50,0,0 // addps 0x3228(%rip),%xmm1 # 8e60 <_sk_clut_4D_sse41+0x25c2> .byte 68,15,40,13,48,50,0,0 // movaps 0x3230(%rip),%xmm9 # 8e70 <_sk_clut_4D_sse41+0x25d2> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_py_sse41 .globl _sk_bilinear_py_sse41 FUNCTION(_sk_bilinear_py_sse41) _sk_bilinear_py_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,30,50,0,0 // addps 0x321e(%rip),%xmm1 # 8e80 <_sk_clut_4D_sse41+0x25e2> .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3x_sse41 .globl _sk_bicubic_n3x_sse41 FUNCTION(_sk_bicubic_n3x_sse41) _sk_bicubic_n3x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,17,50,0,0 // addps 0x3211(%rip),%xmm0 # 8e90 <_sk_clut_4D_sse41+0x25f2> .byte 68,15,40,13,25,50,0,0 // movaps 0x3219(%rip),%xmm9 # 8ea0 <_sk_clut_4D_sse41+0x2602> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,89,13,21,50,0,0 // mulps 0x3215(%rip),%xmm9 # 8eb0 <_sk_clut_4D_sse41+0x2612> .byte 68,15,88,13,29,50,0,0 // addps 0x321d(%rip),%xmm9 # 8ec0 <_sk_clut_4D_sse41+0x2622> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1x_sse41 .globl _sk_bicubic_n1x_sse41 FUNCTION(_sk_bicubic_n1x_sse41) _sk_bicubic_n1x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,12,50,0,0 // addps 0x320c(%rip),%xmm0 # 8ed0 <_sk_clut_4D_sse41+0x2632> .byte 68,15,40,13,20,50,0,0 // movaps 0x3214(%rip),%xmm9 # 8ee0 <_sk_clut_4D_sse41+0x2642> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,40,5,24,50,0,0 // movaps 0x3218(%rip),%xmm8 # 8ef0 <_sk_clut_4D_sse41+0x2652> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,28,50,0,0 // addps 0x321c(%rip),%xmm8 # 8f00 <_sk_clut_4D_sse41+0x2662> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,32,50,0,0 // addps 0x3220(%rip),%xmm8 # 8f10 <_sk_clut_4D_sse41+0x2672> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,36,50,0,0 // addps 0x3224(%rip),%xmm8 # 8f20 <_sk_clut_4D_sse41+0x2682> .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1x_sse41 .globl _sk_bicubic_p1x_sse41 FUNCTION(_sk_bicubic_p1x_sse41) _sk_bicubic_p1x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,30,50,0,0 // movaps 0x321e(%rip),%xmm8 # 8f30 <_sk_clut_4D_sse41+0x2692> .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,21,26,50,0,0 // movaps 0x321a(%rip),%xmm10 # 8f40 <_sk_clut_4D_sse41+0x26a2> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,30,50,0,0 // addps 0x321e(%rip),%xmm10 # 8f50 <_sk_clut_4D_sse41+0x26b2> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,26,50,0,0 // addps 0x321a(%rip),%xmm10 # 8f60 <_sk_clut_4D_sse41+0x26c2> .byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3x_sse41 .globl _sk_bicubic_p3x_sse41 FUNCTION(_sk_bicubic_p3x_sse41) _sk_bicubic_p3x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,13,50,0,0 // addps 0x320d(%rip),%xmm0 # 8f70 <_sk_clut_4D_sse41+0x26d2> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 .byte 68,15,89,5,13,50,0,0 // mulps 0x320d(%rip),%xmm8 # 8f80 <_sk_clut_4D_sse41+0x26e2> .byte 68,15,88,5,21,50,0,0 // addps 0x3215(%rip),%xmm8 # 8f90 <_sk_clut_4D_sse41+0x26f2> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3y_sse41 .globl _sk_bicubic_n3y_sse41 FUNCTION(_sk_bicubic_n3y_sse41) _sk_bicubic_n3y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,3,50,0,0 // addps 0x3203(%rip),%xmm1 # 8fa0 <_sk_clut_4D_sse41+0x2702> .byte 68,15,40,13,11,50,0,0 // movaps 0x320b(%rip),%xmm9 # 8fb0 <_sk_clut_4D_sse41+0x2712> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,89,13,7,50,0,0 // mulps 0x3207(%rip),%xmm9 # 8fc0 <_sk_clut_4D_sse41+0x2722> .byte 68,15,88,13,15,50,0,0 // addps 0x320f(%rip),%xmm9 # 8fd0 <_sk_clut_4D_sse41+0x2732> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1y_sse41 .globl _sk_bicubic_n1y_sse41 FUNCTION(_sk_bicubic_n1y_sse41) _sk_bicubic_n1y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,253,49,0,0 // addps 0x31fd(%rip),%xmm1 # 8fe0 <_sk_clut_4D_sse41+0x2742> .byte 68,15,40,13,5,50,0,0 // movaps 0x3205(%rip),%xmm9 # 8ff0 <_sk_clut_4D_sse41+0x2752> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,40,5,9,50,0,0 // movaps 0x3209(%rip),%xmm8 # 9000 <_sk_clut_4D_sse41+0x2762> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,13,50,0,0 // addps 0x320d(%rip),%xmm8 # 9010 <_sk_clut_4D_sse41+0x2772> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,17,50,0,0 // addps 0x3211(%rip),%xmm8 # 9020 <_sk_clut_4D_sse41+0x2782> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,21,50,0,0 // addps 0x3215(%rip),%xmm8 # 9030 <_sk_clut_4D_sse41+0x2792> .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1y_sse41 .globl _sk_bicubic_p1y_sse41 FUNCTION(_sk_bicubic_p1y_sse41) _sk_bicubic_p1y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,15,50,0,0 // movaps 0x320f(%rip),%xmm8 # 9040 <_sk_clut_4D_sse41+0x27a2> .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 68,15,40,21,10,50,0,0 // movaps 0x320a(%rip),%xmm10 # 9050 <_sk_clut_4D_sse41+0x27b2> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,14,50,0,0 // addps 0x320e(%rip),%xmm10 # 9060 <_sk_clut_4D_sse41+0x27c2> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,10,50,0,0 // addps 0x320a(%rip),%xmm10 # 9070 <_sk_clut_4D_sse41+0x27d2> .byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3y_sse41 .globl _sk_bicubic_p3y_sse41 FUNCTION(_sk_bicubic_p3y_sse41) _sk_bicubic_p3y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,252,49,0,0 // addps 0x31fc(%rip),%xmm1 # 9080 <_sk_clut_4D_sse41+0x27e2> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 .byte 68,15,89,5,252,49,0,0 // mulps 0x31fc(%rip),%xmm8 # 9090 <_sk_clut_4D_sse41+0x27f2> .byte 68,15,88,5,4,50,0,0 // addps 0x3204(%rip),%xmm8 # 90a0 <_sk_clut_4D_sse41+0x2802> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_callback_sse41 .globl _sk_callback_sse41 FUNCTION(_sk_callback_sse41) _sk_callback_sse41: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,72 // sub $0x48,%rsp .byte 15,41,125,144 // movaps %xmm7,-0x70(%rbp) .byte 15,41,117,160 // movaps %xmm6,-0x60(%rbp) .byte 15,41,109,176 // movaps %xmm5,-0x50(%rbp) .byte 15,41,101,192 // movaps %xmm4,-0x40(%rbp) .byte 76,137,195 // mov %r8,%rbx .byte 72,137,77,208 // mov %rcx,-0x30(%rbp) .byte 73,137,215 // mov %rdx,%r15 .byte 73,137,252 // mov %rdi,%r12 .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,198 // mov %rax,%r14 .byte 73,137,245 // mov %rsi,%r13 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,21,193 // unpckhps %xmm1,%xmm0 .byte 15,21,211 // unpckhps %xmm3,%xmm2 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1 .byte 15,18,236 // movhlps %xmm4,%xmm5 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3 .byte 102,65,15,17,78,8 // movupd %xmm1,0x8(%r14) .byte 15,18,208 // movhlps %xmm0,%xmm2 .byte 65,15,17,110,24 // movups %xmm5,0x18(%r14) .byte 102,65,15,17,94,40 // movupd %xmm3,0x28(%r14) .byte 65,15,17,86,56 // movups %xmm2,0x38(%r14) .byte 72,133,219 // test %rbx,%rbx .byte 190,4,0,0,0 // mov $0x4,%esi .byte 15,69,243 // cmovne %ebx,%esi .byte 76,137,247 // mov %r14,%rdi .byte 65,255,22 // callq *(%r14) .byte 73,139,134,136,0,0,0 // mov 0x88(%r14),%rax .byte 15,16,32 // movups (%rax),%xmm4 .byte 15,16,64,16 // movups 0x10(%rax),%xmm0 .byte 15,16,88,32 // movups 0x20(%rax),%xmm3 .byte 15,16,80,48 // movups 0x30(%rax),%xmm2 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 15,21,224 // unpckhps %xmm0,%xmm4 .byte 15,21,218 // unpckhps %xmm2,%xmm3 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 15,18,205 // movhlps %xmm5,%xmm1 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 15,18,220 // movhlps %xmm4,%xmm3 .byte 76,137,238 // mov %r13,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,231 // mov %r12,%rdi .byte 76,137,250 // mov %r15,%rdx .byte 72,139,77,208 // mov -0x30(%rbp),%rcx .byte 73,137,216 // mov %rbx,%r8 .byte 15,40,101,192 // movaps -0x40(%rbp),%xmm4 .byte 15,40,109,176 // movaps -0x50(%rbp),%xmm5 .byte 15,40,117,160 // movaps -0x60(%rbp),%xmm6 .byte 15,40,125,144 // movaps -0x70(%rbp),%xmm7 .byte 72,131,196,72 // add $0x48,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_3D_sse41 .globl _sk_clut_3D_sse41 FUNCTION(_sk_clut_3D_sse41) _sk_clut_3D_sse41: .byte 85 // push %rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,72 // sub $0x48,%rsp .byte 15,41,124,36,48 // movaps %xmm7,0x30(%rsp) .byte 15,41,116,36,32 // movaps %xmm6,0x20(%rsp) .byte 15,41,108,36,16 // movaps %xmm5,0x10(%rsp) .byte 15,41,36,36 // movaps %xmm4,(%rsp) .byte 15,41,92,36,240 // movaps %xmm3,-0x10(%rsp) .byte 76,137,68,36,152 // mov %r8,-0x68(%rsp) .byte 72,137,76,36,144 // mov %rcx,-0x70(%rsp) .byte 73,137,208 // mov %rdx,%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 65,141,89,255 // lea -0x1(%r9),%ebx .byte 102,15,110,219 // movd %ebx,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 243,15,91,227 // cvttps2dq %xmm3,%xmm4 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,41,68,36,224 // movaps %xmm8,-0x20(%rsp) .byte 102,65,15,110,209 // movd %r9d,%xmm2 .byte 102,15,112,234,0 // pshufd $0x0,%xmm2,%xmm5 .byte 102,15,127,108,36,160 // movdqa %xmm5,-0x60(%rsp) .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 65,141,89,255 // lea -0x1(%r9),%ebx .byte 102,15,110,219 // movd %ebx,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 243,68,15,91,235 // cvttps2dq %xmm3,%xmm13 .byte 102,68,15,127,108,36,192 // movdqa %xmm13,-0x40(%rsp) .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,41,124,36,128 // movaps %xmm7,-0x80(%rsp) .byte 102,68,15,56,64,237 // pmulld %xmm5,%xmm13 .byte 102,65,15,111,205 // movdqa %xmm13,%xmm1 .byte 102,15,254,204 // paddd %xmm4,%xmm1 .byte 102,68,15,111,212 // movdqa %xmm4,%xmm10 .byte 102,68,15,127,84,36,208 // movdqa %xmm10,-0x30(%rsp) .byte 102,65,15,110,217 // movd %r9d,%xmm3 .byte 102,15,56,64,218 // pmulld %xmm2,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 139,88,8 // mov 0x8(%rax),%ebx .byte 255,203 // dec %ebx .byte 102,15,110,211 // movd %ebx,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 68,15,91,242 // cvtdq2ps %xmm2,%xmm14 .byte 68,15,89,240 // mulps %xmm0,%xmm14 .byte 243,65,15,91,198 // cvttps2dq %xmm14,%xmm0 .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12 .byte 102,68,15,56,64,227 // pmulld %xmm3,%xmm12 .byte 102,65,15,111,212 // movdqa %xmm12,%xmm2 .byte 102,15,254,209 // paddd %xmm1,%xmm2 .byte 102,15,111,37,45,48,0,0 // movdqa 0x302d(%rip),%xmm4 # 90c0 <_sk_clut_4D_sse41+0x2822> .byte 102,15,56,64,212 // pmulld %xmm4,%xmm2 .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11 .byte 102,68,15,111,61,42,48,0,0 // movdqa 0x302a(%rip),%xmm15 # 90d0 <_sk_clut_4D_sse41+0x2832> .byte 102,15,111,226 // movdqa %xmm2,%xmm4 .byte 102,65,15,254,231 // paddd %xmm15,%xmm4 .byte 102,73,15,58,22,225,1 // pextrq $0x1,%xmm4,%r9 .byte 102,72,15,126,227 // movq %xmm4,%rbx .byte 72,139,0 // mov (%rax),%rax .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 69,137,203 // mov %r9d,%r11d .byte 243,66,15,16,36,144 // movss (%rax,%r10,4),%xmm4 .byte 102,15,58,33,36,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm4 .byte 243,66,15,16,44,152 // movss (%rax,%r11,4),%xmm5 .byte 102,15,58,33,229,32 // insertps $0x20,%xmm5,%xmm4 .byte 73,193,233,32 // shr $0x20,%r9 .byte 243,66,15,16,44,136 // movss (%rax,%r9,4),%xmm5 .byte 102,15,58,33,229,48 // insertps $0x30,%xmm5,%xmm4 .byte 102,65,15,126,209 // movd %xmm2,%r9d .byte 102,65,15,58,22,210,1 // pextrd $0x1,%xmm2,%r10d .byte 102,65,15,58,22,211,2 // pextrd $0x2,%xmm2,%r11d .byte 102,65,15,58,22,214,3 // pextrd $0x3,%xmm2,%r14d .byte 102,68,15,111,13,204,47,0,0 // movdqa 0x2fcc(%rip),%xmm9 # 90e0 <_sk_clut_4D_sse41+0x2842> .byte 102,65,15,254,209 // paddd %xmm9,%xmm2 .byte 102,73,15,58,22,215,1 // pextrq $0x1,%xmm2,%r15 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 65,137,220 // mov %ebx,%r12d .byte 72,193,235,32 // shr $0x20,%rbx .byte 69,137,253 // mov %r15d,%r13d .byte 243,66,15,16,52,160 // movss (%rax,%r12,4),%xmm6 .byte 102,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm6 .byte 243,66,15,16,20,168 // movss (%rax,%r13,4),%xmm2 .byte 102,15,58,33,242,32 // insertps $0x20,%xmm2,%xmm6 .byte 73,193,239,32 // shr $0x20,%r15 .byte 243,66,15,16,20,184 // movss (%rax,%r15,4),%xmm2 .byte 102,15,58,33,242,48 // insertps $0x30,%xmm2,%xmm6 .byte 15,40,45,81,47,0,0 // movaps 0x2f51(%rip),%xmm5 # 90b0 <_sk_clut_4D_sse41+0x2812> .byte 68,15,88,197 // addps %xmm5,%xmm8 .byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp) .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 65,15,88,238 // addps %xmm14,%xmm5 .byte 243,68,15,91,197 // cvttps2dq %xmm5,%xmm8 .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8 .byte 102,65,15,254,200 // paddd %xmm8,%xmm1 .byte 102,65,15,111,251 // movdqa %xmm11,%xmm7 .byte 102,15,56,64,207 // pmulld %xmm7,%xmm1 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,65,15,254,223 // paddd %xmm15,%xmm3 .byte 102,73,15,58,22,223,1 // pextrq $0x1,%xmm3,%r15 .byte 102,72,15,126,219 // movq %xmm3,%rbx .byte 65,137,220 // mov %ebx,%r12d .byte 72,193,235,32 // shr $0x20,%rbx .byte 69,137,253 // mov %r15d,%r13d .byte 243,66,15,16,44,160 // movss (%rax,%r12,4),%xmm5 .byte 102,15,58,33,44,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm5 .byte 243,66,15,16,28,168 // movss (%rax,%r13,4),%xmm3 .byte 102,15,58,33,235,32 // insertps $0x20,%xmm3,%xmm5 .byte 73,193,239,32 // shr $0x20,%r15 .byte 243,66,15,16,28,184 // movss (%rax,%r15,4),%xmm3 .byte 102,15,58,33,235,48 // insertps $0x30,%xmm3,%xmm5 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 102,65,15,58,22,207,1 // pextrd $0x1,%xmm1,%r15d .byte 102,65,15,58,22,204,2 // pextrd $0x2,%xmm1,%r12d .byte 102,65,15,58,22,205,3 // pextrd $0x3,%xmm1,%r13d .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp .byte 102,72,15,126,201 // movq %xmm1,%rcx .byte 137,202 // mov %ecx,%edx .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,28,144 // movss (%rax,%rdx,4),%xmm3 .byte 102,15,58,33,28,136,16 // insertps $0x10,(%rax,%rcx,4),%xmm3 .byte 137,233 // mov %ebp,%ecx .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1 .byte 102,15,58,33,217,32 // insertps $0x20,%xmm1,%xmm3 .byte 72,193,237,32 // shr $0x20,%rbp .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,217,48 // insertps $0x30,%xmm1,%xmm3 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,92,240 // subps %xmm0,%xmm14 .byte 243,66,15,16,4,136 // movss (%rax,%r9,4),%xmm0 .byte 102,66,15,58,33,4,144,16 // insertps $0x10,(%rax,%r10,4),%xmm0 .byte 102,66,15,58,33,4,152,32 // insertps $0x20,(%rax,%r11,4),%xmm0 .byte 102,66,15,58,33,4,176,48 // insertps $0x30,(%rax,%r14,4),%xmm0 .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1 .byte 102,66,15,58,33,12,184,16 // insertps $0x10,(%rax,%r15,4),%xmm1 .byte 102,66,15,58,33,12,160,32 // insertps $0x20,(%rax,%r12,4),%xmm1 .byte 102,66,15,58,33,12,168,48 // insertps $0x30,(%rax,%r13,4),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 65,15,89,206 // mulps %xmm14,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 65,15,89,238 // mulps %xmm14,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 15,92,222 // subps %xmm6,%xmm3 .byte 65,15,89,222 // mulps %xmm14,%xmm3 .byte 15,88,222 // addps %xmm6,%xmm3 .byte 243,68,15,91,218 // cvttps2dq %xmm2,%xmm11 .byte 102,68,15,56,64,92,36,160 // pmulld -0x60(%rsp),%xmm11 .byte 102,65,15,111,227 // movdqa %xmm11,%xmm4 .byte 102,65,15,254,226 // paddd %xmm10,%xmm4 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,254,196 // paddd %xmm12,%xmm0 .byte 102,15,56,64,199 // pmulld %xmm7,%xmm0 .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,58,22,194,1 // pextrd $0x1,%xmm0,%edx .byte 102,15,58,22,197,2 // pextrd $0x2,%xmm0,%ebp .byte 102,15,58,22,195,3 // pextrd $0x3,%xmm0,%ebx .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6 .byte 102,15,58,33,52,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm6 .byte 102,15,58,33,52,168,32 // insertps $0x20,(%rax,%rbp,4),%xmm6 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,242,48 // insertps $0x30,%xmm2,%xmm6 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,65,15,254,215 // paddd %xmm15,%xmm2 .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,210 // movq %xmm2,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,15,58,33,20,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm2 .byte 243,15,16,60,152 // movss (%rax,%rbx,4),%xmm7 .byte 102,15,58,33,215,32 // insertps $0x20,%xmm7,%xmm2 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,60,136 // movss (%rax,%rcx,4),%xmm7 .byte 102,15,58,33,215,48 // insertps $0x30,%xmm7,%xmm2 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm0 .byte 243,15,16,60,152 // movss (%rax,%rbx,4),%xmm7 .byte 102,15,58,33,199,32 // insertps $0x20,%xmm7,%xmm0 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,60,136 // movss (%rax,%rcx,4),%xmm7 .byte 102,15,58,33,199,48 // insertps $0x30,%xmm7,%xmm0 .byte 102,65,15,254,224 // paddd %xmm8,%xmm4 .byte 102,65,15,56,64,226 // pmulld %xmm10,%xmm4 .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,65,15,254,255 // paddd %xmm15,%xmm7 .byte 102,72,15,58,22,249,1 // pextrq $0x1,%xmm7,%rcx .byte 102,72,15,126,250 // movq %xmm7,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,68,15,16,20,168 // movss (%rax,%rbp,4),%xmm10 .byte 102,68,15,58,33,20,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm10 .byte 243,15,16,60,152 // movss (%rax,%rbx,4),%xmm7 .byte 102,68,15,58,33,215,32 // insertps $0x20,%xmm7,%xmm10 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,60,136 // movss (%rax,%rcx,4),%xmm7 .byte 102,68,15,58,33,215,48 // insertps $0x30,%xmm7,%xmm10 .byte 102,65,15,126,225 // movd %xmm4,%r9d .byte 102,65,15,58,22,226,1 // pextrd $0x1,%xmm4,%r10d .byte 102,65,15,58,22,230,2 // pextrd $0x2,%xmm4,%r14d .byte 102,65,15,58,22,227,3 // pextrd $0x3,%xmm4,%r11d .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7 .byte 102,15,254,231 // paddd %xmm7,%xmm4 .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx .byte 102,72,15,126,226 // movq %xmm4,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,68,15,16,12,152 // movss (%rax,%rbx,4),%xmm9 .byte 102,68,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm9 .byte 243,15,16,36,168 // movss (%rax,%rbp,4),%xmm4 .byte 102,68,15,58,33,204,32 // insertps $0x20,%xmm4,%xmm9 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4 .byte 102,68,15,58,33,204,48 // insertps $0x30,%xmm4,%xmm9 .byte 243,66,15,16,36,136 // movss (%rax,%r9,4),%xmm4 .byte 102,66,15,58,33,36,144,16 // insertps $0x10,(%rax,%r10,4),%xmm4 .byte 102,66,15,58,33,36,176,32 // insertps $0x20,(%rax,%r14,4),%xmm4 .byte 102,66,15,58,33,36,152,48 // insertps $0x30,(%rax,%r11,4),%xmm4 .byte 15,92,230 // subps %xmm6,%xmm4 .byte 65,15,89,230 // mulps %xmm14,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 68,15,92,210 // subps %xmm2,%xmm10 .byte 69,15,89,214 // mulps %xmm14,%xmm10 .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 69,15,89,206 // mulps %xmm14,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 15,91,68,36,192 // cvtdq2ps -0x40(%rsp),%xmm0 .byte 15,40,84,36,128 // movaps -0x80(%rsp),%xmm2 .byte 15,92,208 // subps %xmm0,%xmm2 .byte 15,41,84,36,128 // movaps %xmm2,-0x80(%rsp) .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 68,15,92,213 // subps %xmm5,%xmm10 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 68,15,88,213 // addps %xmm5,%xmm10 .byte 68,15,92,203 // subps %xmm3,%xmm9 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 68,15,88,203 // addps %xmm3,%xmm9 .byte 243,15,91,68,36,176 // cvttps2dq -0x50(%rsp),%xmm0 .byte 102,68,15,254,232 // paddd %xmm0,%xmm13 .byte 102,65,15,111,212 // movdqa %xmm12,%xmm2 .byte 102,65,15,254,213 // paddd %xmm13,%xmm2 .byte 102,15,111,45,16,44,0,0 // movdqa 0x2c10(%rip),%xmm5 # 90c0 <_sk_clut_4D_sse41+0x2822> .byte 102,15,56,64,213 // pmulld %xmm5,%xmm2 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,254,207 // paddd %xmm15,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3 .byte 102,15,58,33,203,32 // insertps $0x20,%xmm3,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3 .byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1 .byte 102,65,15,126,214 // movd %xmm2,%r14d .byte 102,65,15,58,22,209,1 // pextrd $0x1,%xmm2,%r9d .byte 102,65,15,58,22,210,2 // pextrd $0x2,%xmm2,%r10d .byte 102,65,15,58,22,211,3 // pextrd $0x3,%xmm2,%r11d .byte 102,15,254,215 // paddd %xmm7,%xmm2 .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,210 // movq %xmm2,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,15,58,33,20,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm2 .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 .byte 102,68,15,254,238 // paddd %xmm6,%xmm13 .byte 102,68,15,56,64,237 // pmulld %xmm5,%xmm13 .byte 102,65,15,111,221 // movdqa %xmm13,%xmm3 .byte 102,65,15,254,223 // paddd %xmm15,%xmm3 .byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx .byte 102,72,15,126,218 // movq %xmm3,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,68,15,16,4,152 // movss (%rax,%rbx,4),%xmm8 .byte 102,68,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm8 .byte 243,15,16,28,168 // movss (%rax,%rbp,4),%xmm3 .byte 102,68,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm8 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3 .byte 102,68,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm8 .byte 102,68,15,126,233 // movd %xmm13,%ecx .byte 102,69,15,58,22,239,1 // pextrd $0x1,%xmm13,%r15d .byte 102,69,15,58,22,236,2 // pextrd $0x2,%xmm13,%r12d .byte 102,69,15,58,22,237,3 // pextrd $0x3,%xmm13,%r13d .byte 102,68,15,254,239 // paddd %xmm7,%xmm13 .byte 102,76,15,58,22,234,1 // pextrq $0x1,%xmm13,%rdx .byte 102,76,15,126,235 // movq %xmm13,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,68,15,16,44,168 // movss (%rax,%rbp,4),%xmm13 .byte 102,68,15,58,33,44,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm13 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3 .byte 102,68,15,58,33,235,32 // insertps $0x20,%xmm3,%xmm13 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,28,144 // movss (%rax,%rdx,4),%xmm3 .byte 102,68,15,58,33,235,48 // insertps $0x30,%xmm3,%xmm13 .byte 243,66,15,16,28,176 // movss (%rax,%r14,4),%xmm3 .byte 102,66,15,58,33,28,136,16 // insertps $0x10,(%rax,%r9,4),%xmm3 .byte 102,66,15,58,33,28,144,32 // insertps $0x20,(%rax,%r10,4),%xmm3 .byte 102,66,15,58,33,28,152,48 // insertps $0x30,(%rax,%r11,4),%xmm3 .byte 243,15,16,60,136 // movss (%rax,%rcx,4),%xmm7 .byte 102,66,15,58,33,60,184,16 // insertps $0x10,(%rax,%r15,4),%xmm7 .byte 102,66,15,58,33,60,160,32 // insertps $0x20,(%rax,%r12,4),%xmm7 .byte 102,66,15,58,33,60,168,48 // insertps $0x30,(%rax,%r13,4),%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 65,15,89,254 // mulps %xmm14,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 68,15,92,193 // subps %xmm1,%xmm8 .byte 69,15,89,198 // mulps %xmm14,%xmm8 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 68,15,92,234 // subps %xmm2,%xmm13 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,88,234 // addps %xmm2,%xmm13 .byte 102,68,15,254,216 // paddd %xmm0,%xmm11 .byte 102,69,15,254,227 // paddd %xmm11,%xmm12 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,68,15,56,64,225 // pmulld %xmm1,%xmm12 .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0 .byte 102,65,15,254,199 // paddd %xmm15,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,28,168 // movss (%rax,%rbp,4),%xmm3 .byte 102,15,58,33,28,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm3 .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0 .byte 102,15,58,33,216,32 // insertps $0x20,%xmm0,%xmm3 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,216,48 // insertps $0x30,%xmm0,%xmm3 .byte 102,69,15,126,230 // movd %xmm12,%r14d .byte 102,69,15,58,22,225,1 // pextrd $0x1,%xmm12,%r9d .byte 102,69,15,58,22,226,2 // pextrd $0x2,%xmm12,%r10d .byte 102,69,15,58,22,227,3 // pextrd $0x3,%xmm12,%r11d .byte 102,15,111,21,4,42,0,0 // movdqa 0x2a04(%rip),%xmm2 # 90e0 <_sk_clut_4D_sse41+0x2842> .byte 102,68,15,254,226 // paddd %xmm2,%xmm12 .byte 102,76,15,58,22,225,1 // pextrq $0x1,%xmm12,%rcx .byte 102,76,15,126,226 // movq %xmm12,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,44,168 // movss (%rax,%rbp,4),%xmm5 .byte 102,15,58,33,44,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm5 .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0 .byte 102,15,58,33,232,32 // insertps $0x20,%xmm0,%xmm5 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5 .byte 102,68,15,254,222 // paddd %xmm6,%xmm11 .byte 102,68,15,56,64,217 // pmulld %xmm1,%xmm11 .byte 102,69,15,254,251 // paddd %xmm11,%xmm15 .byte 102,76,15,58,22,249,1 // pextrq $0x1,%xmm15,%rcx .byte 102,76,15,126,250 // movq %xmm15,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,200,32 // insertps $0x20,%xmm0,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,200,48 // insertps $0x30,%xmm0,%xmm1 .byte 102,68,15,126,217 // movd %xmm11,%ecx .byte 102,69,15,58,22,223,1 // pextrd $0x1,%xmm11,%r15d .byte 102,69,15,58,22,220,2 // pextrd $0x2,%xmm11,%r12d .byte 102,69,15,58,22,221,3 // pextrd $0x3,%xmm11,%r13d .byte 102,68,15,254,218 // paddd %xmm2,%xmm11 .byte 102,76,15,58,22,218,1 // pextrq $0x1,%xmm11,%rdx .byte 102,76,15,126,219 // movq %xmm11,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,15,58,33,20,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm2 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0 .byte 102,15,58,33,208,32 // insertps $0x20,%xmm0,%xmm2 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,4,144 // movss (%rax,%rdx,4),%xmm0 .byte 102,15,58,33,208,48 // insertps $0x30,%xmm0,%xmm2 .byte 243,66,15,16,52,176 // movss (%rax,%r14,4),%xmm6 .byte 102,66,15,58,33,52,136,16 // insertps $0x10,(%rax,%r9,4),%xmm6 .byte 102,66,15,58,33,52,144,32 // insertps $0x20,(%rax,%r10,4),%xmm6 .byte 102,66,15,58,33,52,152,48 // insertps $0x30,(%rax,%r11,4),%xmm6 .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,66,15,58,33,4,184,16 // insertps $0x10,(%rax,%r15,4),%xmm0 .byte 102,66,15,58,33,4,160,32 // insertps $0x20,(%rax,%r12,4),%xmm0 .byte 102,66,15,58,33,4,168,48 // insertps $0x30,(%rax,%r13,4),%xmm0 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 65,15,89,206 // mulps %xmm14,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 65,15,89,214 // mulps %xmm14,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,40,92,36,128 // movaps -0x80(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 65,15,92,213 // subps %xmm13,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 65,15,88,213 // addps %xmm13,%xmm2 .byte 15,91,92,36,208 // cvtdq2ps -0x30(%rsp),%xmm3 .byte 15,40,108,36,224 // movaps -0x20(%rsp),%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 65,15,92,209 // subps %xmm9,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,194 // mov %r8,%rdx .byte 72,139,76,36,144 // mov -0x70(%rsp),%rcx .byte 76,139,68,36,152 // mov -0x68(%rsp),%r8 .byte 15,40,92,36,240 // movaps -0x10(%rsp),%xmm3 .byte 15,40,36,36 // movaps (%rsp),%xmm4 .byte 15,40,108,36,16 // movaps 0x10(%rsp),%xmm5 .byte 15,40,116,36,32 // movaps 0x20(%rsp),%xmm6 .byte 15,40,124,36,48 // movaps 0x30(%rsp),%xmm7 .byte 72,131,196,72 // add $0x48,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_4D_sse41 .globl _sk_clut_4D_sse41 FUNCTION(_sk_clut_4D_sse41) _sk_clut_4D_sse41: .byte 85 // push %rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,129,236,152,0,0,0 // sub $0x98,%rsp .byte 15,41,188,36,128,0,0,0 // movaps %xmm7,0x80(%rsp) .byte 15,41,116,36,112 // movaps %xmm6,0x70(%rsp) .byte 15,41,108,36,96 // movaps %xmm5,0x60(%rsp) .byte 15,41,100,36,80 // movaps %xmm4,0x50(%rsp) .byte 76,137,68,36,248 // mov %r8,-0x8(%rsp) .byte 72,137,76,36,240 // mov %rcx,-0x10(%rsp) .byte 73,137,208 // mov %rdx,%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,20 // mov 0x14(%rax),%r9d .byte 65,141,89,255 // lea -0x1(%r9),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 243,15,91,236 // cvttps2dq %xmm4,%xmm5 .byte 102,15,127,44,36 // movdqa %xmm5,(%rsp) .byte 68,15,40,212 // movaps %xmm4,%xmm10 .byte 68,15,41,84,36,64 // movaps %xmm10,0x40(%rsp) .byte 102,65,15,110,225 // movd %r9d,%xmm4 .byte 102,15,112,244,0 // pshufd $0x0,%xmm4,%xmm6 .byte 102,15,127,116,36,32 // movdqa %xmm6,0x20(%rsp) .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 65,141,89,255 // lea -0x1(%r9),%ebx .byte 102,15,110,219 // movd %ebx,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 243,68,15,91,227 // cvttps2dq %xmm3,%xmm12 .byte 102,68,15,127,100,36,192 // movdqa %xmm12,-0x40(%rsp) .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,41,124,36,224 // movaps %xmm7,-0x20(%rsp) .byte 102,68,15,56,64,230 // pmulld %xmm6,%xmm12 .byte 102,65,15,111,220 // movdqa %xmm12,%xmm3 .byte 102,15,254,221 // paddd %xmm5,%xmm3 .byte 102,65,15,110,209 // movd %r9d,%xmm2 .byte 102,15,56,64,212 // pmulld %xmm4,%xmm2 .byte 102,15,112,234,0 // pshufd $0x0,%xmm2,%xmm5 .byte 102,15,127,108,36,144 // movdqa %xmm5,-0x70(%rsp) .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 65,141,89,255 // lea -0x1(%r9),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 68,15,91,244 // cvtdq2ps %xmm4,%xmm14 .byte 68,15,89,241 // mulps %xmm1,%xmm14 .byte 102,65,15,110,225 // movd %r9d,%xmm4 .byte 102,15,56,64,226 // pmulld %xmm2,%xmm4 .byte 139,88,8 // mov 0x8(%rax),%ebx .byte 255,203 // dec %ebx .byte 102,15,110,203 // movd %ebx,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 68,15,91,249 // cvtdq2ps %xmm1,%xmm15 .byte 68,15,89,248 // mulps %xmm0,%xmm15 .byte 243,65,15,91,198 // cvttps2dq %xmm14,%xmm0 .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp) .byte 102,15,56,64,197 // pmulld %xmm5,%xmm0 .byte 102,15,127,68,36,208 // movdqa %xmm0,-0x30(%rsp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 243,69,15,91,207 // cvttps2dq %xmm15,%xmm9 .byte 102,69,15,111,233 // movdqa %xmm9,%xmm13 .byte 102,68,15,56,64,236 // pmulld %xmm4,%xmm13 .byte 102,65,15,111,197 // movdqa %xmm13,%xmm0 .byte 102,68,15,127,108,36,176 // movdqa %xmm13,-0x50(%rsp) .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,56,64,5,29,39,0,0 // pmulld 0x271d(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,68,15,111,29,36,39,0,0 // movdqa 0x2724(%rip),%xmm11 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,65,15,254,211 // paddd %xmm11,%xmm2 .byte 102,73,15,58,22,209,1 // pextrq $0x1,%xmm2,%r9 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 72,139,0 // mov (%rax),%rax .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 69,137,203 // mov %r9d,%r11d .byte 243,66,15,16,20,144 // movss (%rax,%r10,4),%xmm2 .byte 102,15,58,33,20,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm2 .byte 243,66,15,16,44,152 // movss (%rax,%r11,4),%xmm5 .byte 102,15,58,33,213,32 // insertps $0x20,%xmm5,%xmm2 .byte 73,193,233,32 // shr $0x20,%r9 .byte 243,66,15,16,44,136 // movss (%rax,%r9,4),%xmm5 .byte 102,15,58,33,213,48 // insertps $0x30,%xmm5,%xmm2 .byte 102,65,15,126,193 // movd %xmm0,%r9d .byte 102,65,15,58,22,194,1 // pextrd $0x1,%xmm0,%r10d .byte 102,65,15,58,22,195,2 // pextrd $0x2,%xmm0,%r11d .byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d .byte 102,68,15,111,5,198,38,0,0 // movdqa 0x26c6(%rip),%xmm8 # 9120 <_sk_clut_4D_sse41+0x2882> .byte 102,65,15,254,192 // paddd %xmm8,%xmm0 .byte 102,73,15,58,22,199,1 // pextrq $0x1,%xmm0,%r15 .byte 102,72,15,126,195 // movq %xmm0,%rbx .byte 65,137,220 // mov %ebx,%r12d .byte 72,193,235,32 // shr $0x20,%rbx .byte 69,137,253 // mov %r15d,%r13d .byte 243,66,15,16,44,160 // movss (%rax,%r12,4),%xmm5 .byte 102,15,58,33,44,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm5 .byte 243,66,15,16,4,168 // movss (%rax,%r13,4),%xmm0 .byte 102,15,58,33,232,32 // insertps $0x20,%xmm0,%xmm5 .byte 73,193,239,32 // shr $0x20,%r15 .byte 243,66,15,16,4,184 // movss (%rax,%r15,4),%xmm0 .byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5 .byte 15,40,53,75,38,0,0 // movaps 0x264b(%rip),%xmm6 # 90f0 <_sk_clut_4D_sse41+0x2852> .byte 68,15,88,214 // addps %xmm6,%xmm10 .byte 68,15,41,84,36,48 // movaps %xmm10,0x30(%rsp) .byte 15,88,254 // addps %xmm6,%xmm7 .byte 15,41,124,36,16 // movaps %xmm7,0x10(%rsp) .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 65,15,88,247 // addps %xmm15,%xmm6 .byte 243,15,91,246 // cvttps2dq %xmm6,%xmm6 .byte 102,15,56,64,244 // pmulld %xmm4,%xmm6 .byte 102,15,254,206 // paddd %xmm6,%xmm1 .byte 102,68,15,111,214 // movdqa %xmm6,%xmm10 .byte 102,68,15,127,84,36,160 // movdqa %xmm10,-0x60(%rsp) .byte 102,15,56,64,13,28,38,0,0 // pmulld 0x261c(%rip),%xmm1 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,65,15,254,227 // paddd %xmm11,%xmm4 .byte 102,73,15,58,22,231,1 // pextrq $0x1,%xmm4,%r15 .byte 102,72,15,126,227 // movq %xmm4,%rbx .byte 65,137,220 // mov %ebx,%r12d .byte 72,193,235,32 // shr $0x20,%rbx .byte 69,137,253 // mov %r15d,%r13d .byte 243,66,15,16,52,160 // movss (%rax,%r12,4),%xmm6 .byte 102,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm6 .byte 243,66,15,16,36,168 // movss (%rax,%r13,4),%xmm4 .byte 102,15,58,33,244,32 // insertps $0x20,%xmm4,%xmm6 .byte 73,193,239,32 // shr $0x20,%r15 .byte 243,66,15,16,36,184 // movss (%rax,%r15,4),%xmm4 .byte 102,15,58,33,244,48 // insertps $0x30,%xmm4,%xmm6 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 102,65,15,58,22,207,1 // pextrd $0x1,%xmm1,%r15d .byte 102,65,15,58,22,204,2 // pextrd $0x2,%xmm1,%r12d .byte 102,65,15,58,22,205,3 // pextrd $0x3,%xmm1,%r13d .byte 102,65,15,254,200 // paddd %xmm8,%xmm1 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp .byte 102,72,15,126,201 // movq %xmm1,%rcx .byte 137,202 // mov %ecx,%edx .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,36,144 // movss (%rax,%rdx,4),%xmm4 .byte 102,15,58,33,36,136,16 // insertps $0x10,(%rax,%rcx,4),%xmm4 .byte 137,233 // mov %ebp,%ecx .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1 .byte 102,15,58,33,225,32 // insertps $0x20,%xmm1,%xmm4 .byte 72,193,237,32 // shr $0x20,%rbp .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,225,48 // insertps $0x30,%xmm1,%xmm4 .byte 65,15,91,201 // cvtdq2ps %xmm9,%xmm1 .byte 68,15,92,249 // subps %xmm1,%xmm15 .byte 243,66,15,16,12,136 // movss (%rax,%r9,4),%xmm1 .byte 102,66,15,58,33,12,144,16 // insertps $0x10,(%rax,%r10,4),%xmm1 .byte 102,66,15,58,33,12,152,32 // insertps $0x20,(%rax,%r11,4),%xmm1 .byte 102,66,15,58,33,12,176,48 // insertps $0x30,(%rax,%r14,4),%xmm1 .byte 243,15,16,60,152 // movss (%rax,%rbx,4),%xmm7 .byte 102,66,15,58,33,60,184,16 // insertps $0x10,(%rax,%r15,4),%xmm7 .byte 102,66,15,58,33,60,160,32 // insertps $0x20,(%rax,%r12,4),%xmm7 .byte 102,66,15,58,33,60,168,48 // insertps $0x30,(%rax,%r13,4),%xmm7 .byte 15,92,249 // subps %xmm1,%xmm7 .byte 65,15,89,255 // mulps %xmm15,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 65,15,89,247 // mulps %xmm15,%xmm6 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 65,15,89,231 // mulps %xmm15,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,56,64,68,36,144 // pmulld -0x70(%rsp),%xmm0 .byte 102,15,127,68,36,144 // movdqa %xmm0,-0x70(%rsp) .byte 102,15,254,216 // paddd %xmm0,%xmm3 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,65,15,254,205 // paddd %xmm13,%xmm1 .byte 102,15,111,5,240,36,0,0 // movdqa 0x24f0(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1 .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,68,15,111,5,233,36,0,0 // movdqa 0x24e9(%rip),%xmm8 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,65,15,254,192 // paddd %xmm8,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm0 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0 .byte 102,65,15,126,206 // movd %xmm1,%r14d .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d .byte 102,65,15,254,203 // paddd %xmm11,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 102,65,15,254,218 // paddd %xmm10,%xmm3 .byte 102,65,15,56,64,217 // pmulld %xmm9,%xmm3 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,65,15,254,208 // paddd %xmm8,%xmm2 .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,210 // movq %xmm2,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,68,15,16,20,152 // movss (%rax,%rbx,4),%xmm10 .byte 102,68,15,58,33,20,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm10 .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,68,15,58,33,210,32 // insertps $0x20,%xmm2,%xmm10 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,68,15,58,33,210,48 // insertps $0x30,%xmm2,%xmm10 .byte 102,15,126,217 // movd %xmm3,%ecx .byte 102,65,15,58,22,223,1 // pextrd $0x1,%xmm3,%r15d .byte 102,65,15,58,22,220,2 // pextrd $0x2,%xmm3,%r12d .byte 102,65,15,58,22,221,3 // pextrd $0x3,%xmm3,%r13d .byte 102,65,15,254,219 // paddd %xmm11,%xmm3 .byte 102,72,15,58,22,218,1 // pextrq $0x1,%xmm3,%rdx .byte 102,72,15,126,219 // movq %xmm3,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,68,15,16,12,168 // movss (%rax,%rbp,4),%xmm9 .byte 102,68,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm9 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,68,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm9 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,20,144 // movss (%rax,%rdx,4),%xmm2 .byte 102,68,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm9 .byte 243,66,15,16,20,176 // movss (%rax,%r14,4),%xmm2 .byte 102,66,15,58,33,20,136,16 // insertps $0x10,(%rax,%r9,4),%xmm2 .byte 102,66,15,58,33,20,144,32 // insertps $0x20,(%rax,%r10,4),%xmm2 .byte 102,66,15,58,33,20,152,48 // insertps $0x30,(%rax,%r11,4),%xmm2 .byte 243,68,15,16,4,136 // movss (%rax,%rcx,4),%xmm8 .byte 102,70,15,58,33,4,184,16 // insertps $0x10,(%rax,%r15,4),%xmm8 .byte 102,70,15,58,33,4,160,32 // insertps $0x20,(%rax,%r12,4),%xmm8 .byte 102,70,15,58,33,4,168,48 // insertps $0x30,(%rax,%r13,4),%xmm8 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 69,15,89,199 // mulps %xmm15,%xmm8 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 69,15,89,215 // mulps %xmm15,%xmm10 .byte 68,15,88,208 // addps %xmm0,%xmm10 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 69,15,89,207 // mulps %xmm15,%xmm9 .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 15,91,68,36,128 // cvtdq2ps -0x80(%rsp),%xmm0 .byte 68,15,92,240 // subps %xmm0,%xmm14 .byte 68,15,41,116,36,128 // movaps %xmm14,-0x80(%rsp) .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 69,15,89,198 // mulps %xmm14,%xmm8 .byte 68,15,88,199 // addps %xmm7,%xmm8 .byte 68,15,92,214 // subps %xmm6,%xmm10 .byte 69,15,89,214 // mulps %xmm14,%xmm10 .byte 68,15,88,214 // addps %xmm6,%xmm10 .byte 68,15,92,204 // subps %xmm4,%xmm9 .byte 69,15,89,206 // mulps %xmm14,%xmm9 .byte 68,15,88,204 // addps %xmm4,%xmm9 .byte 243,68,15,91,116,36,16 // cvttps2dq 0x10(%rsp),%xmm14 .byte 102,68,15,56,64,116,36,32 // pmulld 0x20(%rsp),%xmm14 .byte 102,65,15,111,230 // movdqa %xmm14,%xmm4 .byte 102,15,254,36,36 // paddd (%rsp),%xmm4 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,254,68,36,208 // paddd -0x30(%rsp),%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,68,15,111,108,36,176 // movdqa -0x50(%rsp),%xmm13 .byte 102,65,15,254,205 // paddd %xmm13,%xmm1 .byte 102,15,111,45,197,34,0,0 // movdqa 0x22c5(%rip),%xmm5 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,15,56,64,205 // pmulld %xmm5,%xmm1 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,58,22,202,1 // pextrd $0x1,%xmm1,%edx .byte 102,15,58,22,205,2 // pextrd $0x2,%xmm1,%ebp .byte 102,15,58,22,203,3 // pextrd $0x3,%xmm1,%ebx .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6 .byte 102,15,58,33,52,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm6 .byte 102,15,58,33,52,168,32 // insertps $0x20,(%rax,%rbp,4),%xmm6 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,242,48 // insertps $0x30,%xmm2,%xmm6 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,111,29,144,34,0,0 // movdqa 0x2290(%rip),%xmm3 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,210 // movq %xmm2,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,60,168 // movss (%rax,%rbp,4),%xmm7 .byte 102,15,58,33,60,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm7 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,250,32 // insertps $0x20,%xmm2,%xmm7 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,250,48 // insertps $0x30,%xmm2,%xmm7 .byte 102,65,15,254,203 // paddd %xmm11,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 102,68,15,111,92,36,160 // movdqa -0x60(%rsp),%xmm11 .byte 102,65,15,254,195 // paddd %xmm11,%xmm0 .byte 102,15,56,64,197 // pmulld %xmm5,%xmm0 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,210 // movq %xmm2,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,28,168 // movss (%rax,%rbp,4),%xmm3 .byte 102,15,58,33,28,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm3 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,218,32 // insertps $0x20,%xmm2,%xmm3 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,218,48 // insertps $0x30,%xmm2,%xmm3 .byte 102,65,15,126,193 // movd %xmm0,%r9d .byte 102,65,15,58,22,194,1 // pextrd $0x1,%xmm0,%r10d .byte 102,65,15,58,22,198,2 // pextrd $0x2,%xmm0,%r14d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d .byte 102,15,254,5,174,33,0,0 // paddd 0x21ae(%rip),%xmm0 # 9120 <_sk_clut_4D_sse41+0x2882> .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5 .byte 102,15,58,33,44,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm5 .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,232,32 // insertps $0x20,%xmm0,%xmm5 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5 .byte 243,66,15,16,20,136 // movss (%rax,%r9,4),%xmm2 .byte 102,66,15,58,33,20,144,16 // insertps $0x10,(%rax,%r10,4),%xmm2 .byte 102,66,15,58,33,20,176,32 // insertps $0x20,(%rax,%r14,4),%xmm2 .byte 102,66,15,58,33,20,152,48 // insertps $0x30,(%rax,%r11,4),%xmm2 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,215 // mulps %xmm15,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 65,15,89,223 // mulps %xmm15,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 65,15,89,239 // mulps %xmm15,%xmm5 .byte 15,88,233 // addps %xmm1,%xmm5 .byte 102,15,254,100,36,144 // paddd -0x70(%rsp),%xmm4 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,254,197 // paddd %xmm13,%xmm0 .byte 102,68,15,111,45,0,33,0,0 // movdqa 0x2100(%rip),%xmm13 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,65,15,56,64,197 // pmulld %xmm13,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,53,254,32,0,0 // movdqa 0x20fe(%rip),%xmm6 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,15,254,206 // paddd %xmm6,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,52,152 // movss (%rax,%rbx,4),%xmm6 .byte 102,15,58,33,206,32 // insertps $0x20,%xmm6,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6 .byte 102,15,58,33,206,48 // insertps $0x30,%xmm6,%xmm1 .byte 102,65,15,126,198 // movd %xmm0,%r14d .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d .byte 102,15,111,61,174,32,0,0 // movdqa 0x20ae(%rip),%xmm7 # 9120 <_sk_clut_4D_sse41+0x2882> .byte 102,15,254,199 // paddd %xmm7,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm0 .byte 243,15,16,52,152 // movss (%rax,%rbx,4),%xmm6 .byte 102,15,58,33,198,32 // insertps $0x20,%xmm6,%xmm0 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6 .byte 102,15,58,33,198,48 // insertps $0x30,%xmm6,%xmm0 .byte 102,65,15,254,227 // paddd %xmm11,%xmm4 .byte 102,65,15,56,64,229 // pmulld %xmm13,%xmm4 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,68,15,111,45,72,32,0,0 // movdqa 0x2048(%rip),%xmm13 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,65,15,254,245 // paddd %xmm13,%xmm6 .byte 102,72,15,58,22,241,1 // pextrq $0x1,%xmm6,%rcx .byte 102,72,15,126,242 // movq %xmm6,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,68,15,16,28,152 // movss (%rax,%rbx,4),%xmm11 .byte 102,68,15,58,33,28,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm11 .byte 243,15,16,52,168 // movss (%rax,%rbp,4),%xmm6 .byte 102,68,15,58,33,222,32 // insertps $0x20,%xmm6,%xmm11 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6 .byte 102,68,15,58,33,222,48 // insertps $0x30,%xmm6,%xmm11 .byte 102,15,126,225 // movd %xmm4,%ecx .byte 102,65,15,58,22,231,1 // pextrd $0x1,%xmm4,%r15d .byte 102,65,15,58,22,228,2 // pextrd $0x2,%xmm4,%r12d .byte 102,65,15,58,22,229,3 // pextrd $0x3,%xmm4,%r13d .byte 102,15,254,231 // paddd %xmm7,%xmm4 .byte 102,72,15,58,22,226,1 // pextrq $0x1,%xmm4,%rdx .byte 102,72,15,126,227 // movq %xmm4,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,15,16,60,168 // movss (%rax,%rbp,4),%xmm7 .byte 102,15,58,33,60,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm7 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,36,152 // movss (%rax,%rbx,4),%xmm4 .byte 102,15,58,33,252,32 // insertps $0x20,%xmm4,%xmm7 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,36,144 // movss (%rax,%rdx,4),%xmm4 .byte 102,15,58,33,252,48 // insertps $0x30,%xmm4,%xmm7 .byte 243,66,15,16,36,176 // movss (%rax,%r14,4),%xmm4 .byte 102,66,15,58,33,36,136,16 // insertps $0x10,(%rax,%r9,4),%xmm4 .byte 102,66,15,58,33,36,144,32 // insertps $0x20,(%rax,%r10,4),%xmm4 .byte 102,66,15,58,33,36,152,48 // insertps $0x30,(%rax,%r11,4),%xmm4 .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6 .byte 102,66,15,58,33,52,184,16 // insertps $0x10,(%rax,%r15,4),%xmm6 .byte 102,66,15,58,33,52,160,32 // insertps $0x20,(%rax,%r12,4),%xmm6 .byte 102,66,15,58,33,52,168,48 // insertps $0x30,(%rax,%r13,4),%xmm6 .byte 15,92,244 // subps %xmm4,%xmm6 .byte 65,15,89,247 // mulps %xmm15,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 68,15,92,217 // subps %xmm1,%xmm11 .byte 69,15,89,223 // mulps %xmm15,%xmm11 .byte 68,15,88,217 // addps %xmm1,%xmm11 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 65,15,89,255 // mulps %xmm15,%xmm7 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,40,68,36,128 // movaps -0x80(%rsp),%xmm0 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 68,15,92,219 // subps %xmm3,%xmm11 .byte 68,15,89,216 // mulps %xmm0,%xmm11 .byte 68,15,88,219 // addps %xmm3,%xmm11 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,88,253 // addps %xmm5,%xmm7 .byte 15,91,68,36,192 // cvtdq2ps -0x40(%rsp),%xmm0 .byte 15,40,76,36,224 // movaps -0x20(%rsp),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,41,76,36,224 // movaps %xmm1,-0x20(%rsp) .byte 65,15,92,240 // subps %xmm8,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 65,15,88,240 // addps %xmm8,%xmm6 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 65,15,92,249 // subps %xmm9,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 65,15,88,249 // addps %xmm9,%xmm7 .byte 243,15,91,68,36,48 // cvttps2dq 0x30(%rsp),%xmm0 .byte 102,15,127,68,36,192 // movdqa %xmm0,-0x40(%rsp) .byte 102,68,15,254,224 // paddd %xmm0,%xmm12 .byte 102,15,111,84,36,208 // movdqa -0x30(%rsp),%xmm2 .byte 102,65,15,254,212 // paddd %xmm12,%xmm2 .byte 102,68,15,111,76,36,176 // movdqa -0x50(%rsp),%xmm9 .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,15,111,29,184,30,0,0 // movdqa 0x1eb8(%rip),%xmm3 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,15,56,64,195 // pmulld %xmm3,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,69,15,111,213 // movdqa %xmm13,%xmm10 .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,36,168 // movss (%rax,%rbp,4),%xmm4 .byte 102,15,58,33,36,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm4 .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1 .byte 102,15,58,33,225,32 // insertps $0x20,%xmm1,%xmm4 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1 .byte 102,15,58,33,225,48 // insertps $0x30,%xmm1,%xmm4 .byte 102,65,15,126,198 // movd %xmm0,%r14d .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d .byte 102,15,111,45,105,30,0,0 // movdqa 0x1e69(%rip),%xmm5 # 9120 <_sk_clut_4D_sse41+0x2882> .byte 102,15,254,197 // paddd %xmm5,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm0 .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1 .byte 102,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm0 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1 .byte 102,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm0 .byte 102,68,15,111,68,36,160 // movdqa -0x60(%rsp),%xmm8 .byte 102,65,15,254,208 // paddd %xmm8,%xmm2 .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2 .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,28,168 // movss (%rax,%rbp,4),%xmm3 .byte 102,15,58,33,203,32 // insertps $0x20,%xmm3,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3 .byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1 .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,65,15,58,22,215,1 // pextrd $0x1,%xmm2,%r15d .byte 102,65,15,58,22,212,2 // pextrd $0x2,%xmm2,%r12d .byte 102,65,15,58,22,213,3 // pextrd $0x3,%xmm2,%r13d .byte 102,15,254,213 // paddd %xmm5,%xmm2 .byte 102,72,15,58,22,210,1 // pextrq $0x1,%xmm2,%rdx .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,15,58,33,20,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm2 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3 .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,28,144 // movss (%rax,%rdx,4),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 243,66,15,16,44,176 // movss (%rax,%r14,4),%xmm5 .byte 102,66,15,58,33,44,136,16 // insertps $0x10,(%rax,%r9,4),%xmm5 .byte 102,66,15,58,33,44,144,32 // insertps $0x20,(%rax,%r10,4),%xmm5 .byte 102,66,15,58,33,44,152,48 // insertps $0x30,(%rax,%r11,4),%xmm5 .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3 .byte 102,66,15,58,33,28,184,16 // insertps $0x10,(%rax,%r15,4),%xmm3 .byte 102,66,15,58,33,28,160,32 // insertps $0x20,(%rax,%r12,4),%xmm3 .byte 102,66,15,58,33,28,168,48 // insertps $0x30,(%rax,%r13,4),%xmm3 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 65,15,89,223 // mulps %xmm15,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 65,15,89,207 // mulps %xmm15,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,92,208 // subps %xmm0,%xmm2 .byte 65,15,89,215 // mulps %xmm15,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 102,68,15,254,100,36,144 // paddd -0x70(%rsp),%xmm12 .byte 102,65,15,111,228 // movdqa %xmm12,%xmm4 .byte 102,65,15,254,225 // paddd %xmm9,%xmm4 .byte 102,65,15,56,64,229 // pmulld %xmm13,%xmm4 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,254,194 // paddd %xmm10,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm0 .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5 .byte 102,15,58,33,197,32 // insertps $0x20,%xmm5,%xmm0 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5 .byte 102,15,58,33,197,48 // insertps $0x30,%xmm5,%xmm0 .byte 102,65,15,126,230 // movd %xmm4,%r14d .byte 102,65,15,58,22,225,1 // pextrd $0x1,%xmm4,%r9d .byte 102,65,15,58,22,226,2 // pextrd $0x2,%xmm4,%r10d .byte 102,65,15,58,22,227,3 // pextrd $0x3,%xmm4,%r11d .byte 102,68,15,111,13,165,28,0,0 // movdqa 0x1ca5(%rip),%xmm9 # 9120 <_sk_clut_4D_sse41+0x2882> .byte 102,65,15,254,225 // paddd %xmm9,%xmm4 .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx .byte 102,72,15,126,226 // movq %xmm4,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,44,168 // movss (%rax,%rbp,4),%xmm5 .byte 102,15,58,33,44,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm5 .byte 243,15,16,36,152 // movss (%rax,%rbx,4),%xmm4 .byte 102,15,58,33,236,32 // insertps $0x20,%xmm4,%xmm5 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4 .byte 102,15,58,33,236,48 // insertps $0x30,%xmm4,%xmm5 .byte 102,69,15,254,224 // paddd %xmm8,%xmm12 .byte 102,69,15,56,64,229 // pmulld %xmm13,%xmm12 .byte 102,65,15,111,228 // movdqa %xmm12,%xmm4 .byte 102,65,15,254,226 // paddd %xmm10,%xmm4 .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx .byte 102,72,15,126,226 // movq %xmm4,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,68,15,16,20,152 // movss (%rax,%rbx,4),%xmm10 .byte 102,68,15,58,33,20,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm10 .byte 243,15,16,36,168 // movss (%rax,%rbp,4),%xmm4 .byte 102,68,15,58,33,212,32 // insertps $0x20,%xmm4,%xmm10 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4 .byte 102,68,15,58,33,212,48 // insertps $0x30,%xmm4,%xmm10 .byte 102,68,15,126,225 // movd %xmm12,%ecx .byte 102,69,15,58,22,231,1 // pextrd $0x1,%xmm12,%r15d .byte 102,69,15,58,22,228,2 // pextrd $0x2,%xmm12,%r12d .byte 102,69,15,58,22,229,3 // pextrd $0x3,%xmm12,%r13d .byte 102,69,15,254,225 // paddd %xmm9,%xmm12 .byte 102,76,15,58,22,226,1 // pextrq $0x1,%xmm12,%rdx .byte 102,76,15,126,227 // movq %xmm12,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,68,15,16,4,168 // movss (%rax,%rbp,4),%xmm8 .byte 102,68,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm8 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,36,152 // movss (%rax,%rbx,4),%xmm4 .byte 102,68,15,58,33,196,32 // insertps $0x20,%xmm4,%xmm8 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,36,144 // movss (%rax,%rdx,4),%xmm4 .byte 102,68,15,58,33,196,48 // insertps $0x30,%xmm4,%xmm8 .byte 243,70,15,16,36,176 // movss (%rax,%r14,4),%xmm12 .byte 102,70,15,58,33,36,136,16 // insertps $0x10,(%rax,%r9,4),%xmm12 .byte 102,70,15,58,33,36,144,32 // insertps $0x20,(%rax,%r10,4),%xmm12 .byte 102,70,15,58,33,36,152,48 // insertps $0x30,(%rax,%r11,4),%xmm12 .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4 .byte 102,66,15,58,33,36,184,16 // insertps $0x10,(%rax,%r15,4),%xmm4 .byte 102,66,15,58,33,36,160,32 // insertps $0x20,(%rax,%r12,4),%xmm4 .byte 102,66,15,58,33,36,168,48 // insertps $0x30,(%rax,%r13,4),%xmm4 .byte 65,15,92,228 // subps %xmm12,%xmm4 .byte 65,15,89,231 // mulps %xmm15,%xmm4 .byte 65,15,88,228 // addps %xmm12,%xmm4 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 69,15,89,215 // mulps %xmm15,%xmm10 .byte 68,15,88,208 // addps %xmm0,%xmm10 .byte 68,15,92,197 // subps %xmm5,%xmm8 .byte 69,15,89,199 // mulps %xmm15,%xmm8 .byte 68,15,88,197 // addps %xmm5,%xmm8 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,68,36,128 // movaps -0x80(%rsp),%xmm0 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,227 // addps %xmm3,%xmm4 .byte 68,15,92,209 // subps %xmm1,%xmm10 .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 68,15,88,209 // addps %xmm1,%xmm10 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 102,68,15,254,116,36,192 // paddd -0x40(%rsp),%xmm14 .byte 102,15,111,68,36,208 // movdqa -0x30(%rsp),%xmm0 .byte 102,65,15,254,198 // paddd %xmm14,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,254,76,36,176 // paddd -0x50(%rsp),%xmm1 .byte 102,65,15,56,64,205 // pmulld %xmm13,%xmm1 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,68,15,111,37,238,26,0,0 // movdqa 0x1aee(%rip),%xmm12 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,65,15,254,196 // paddd %xmm12,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,4,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm0 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0 .byte 102,65,15,126,206 // movd %xmm1,%r14d .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d .byte 102,15,111,29,157,26,0,0 // movdqa 0x1a9d(%rip),%xmm3 # 9120 <_sk_clut_4D_sse41+0x2882> .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,202 // movq %xmm1,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 102,15,254,108,36,160 // paddd -0x60(%rsp),%xmm5 .byte 102,65,15,56,64,237 // pmulld %xmm13,%xmm5 .byte 102,15,111,213 // movdqa %xmm5,%xmm2 .byte 102,65,15,254,212 // paddd %xmm12,%xmm2 .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,210 // movq %xmm2,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,68,15,16,12,152 // movss (%rax,%rbx,4),%xmm9 .byte 102,68,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm9 .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,68,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm9 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2 .byte 102,68,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm9 .byte 102,15,111,213 // movdqa %xmm5,%xmm2 .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,65,15,58,22,215,1 // pextrd $0x1,%xmm2,%r15d .byte 102,65,15,58,22,212,2 // pextrd $0x2,%xmm2,%r12d .byte 102,65,15,58,22,213,3 // pextrd $0x3,%xmm2,%r13d .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,72,15,58,22,210,1 // pextrq $0x1,%xmm2,%rdx .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,68,15,16,36,168 // movss (%rax,%rbp,4),%xmm12 .byte 102,68,15,58,33,36,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm12 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2 .byte 102,68,15,58,33,226,32 // insertps $0x20,%xmm2,%xmm12 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,20,144 // movss (%rax,%rdx,4),%xmm2 .byte 102,68,15,58,33,226,48 // insertps $0x30,%xmm2,%xmm12 .byte 243,66,15,16,20,176 // movss (%rax,%r14,4),%xmm2 .byte 102,66,15,58,33,20,136,16 // insertps $0x10,(%rax,%r9,4),%xmm2 .byte 102,66,15,58,33,20,144,32 // insertps $0x20,(%rax,%r10,4),%xmm2 .byte 102,66,15,58,33,20,152,48 // insertps $0x30,(%rax,%r11,4),%xmm2 .byte 243,68,15,16,44,136 // movss (%rax,%rcx,4),%xmm13 .byte 102,70,15,58,33,44,184,16 // insertps $0x10,(%rax,%r15,4),%xmm13 .byte 102,70,15,58,33,44,160,32 // insertps $0x20,(%rax,%r12,4),%xmm13 .byte 102,70,15,58,33,44,168,48 // insertps $0x30,(%rax,%r13,4),%xmm13 .byte 68,15,92,234 // subps %xmm2,%xmm13 .byte 69,15,89,239 // mulps %xmm15,%xmm13 .byte 68,15,88,234 // addps %xmm2,%xmm13 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 69,15,89,207 // mulps %xmm15,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,92,225 // subps %xmm1,%xmm12 .byte 69,15,89,231 // mulps %xmm15,%xmm12 .byte 68,15,88,225 // addps %xmm1,%xmm12 .byte 102,68,15,254,116,36,144 // paddd -0x70(%rsp),%xmm14 .byte 102,15,111,68,36,176 // movdqa -0x50(%rsp),%xmm0 .byte 102,65,15,254,198 // paddd %xmm14,%xmm0 .byte 102,15,56,64,5,14,25,0,0 // pmulld 0x190e(%rip),%xmm0 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,254,5,18,25,0,0 // paddd 0x1912(%rip),%xmm0 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,28,168 // movss (%rax,%rbp,4),%xmm3 .byte 102,15,58,33,28,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm3 .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0 .byte 102,15,58,33,216,32 // insertps $0x20,%xmm0,%xmm3 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,216,48 // insertps $0x30,%xmm0,%xmm3 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,126,198 // movd %xmm0,%r14d .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d .byte 102,15,111,213 // movdqa %xmm5,%xmm2 .byte 102,15,254,194 // paddd %xmm2,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,213 // mov %edx,%ebp .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,203 // mov %ecx,%ebx .byte 243,15,16,44,168 // movss (%rax,%rbp,4),%xmm5 .byte 102,15,58,33,44,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm5 .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0 .byte 102,15,58,33,232,32 // insertps $0x20,%xmm0,%xmm5 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5 .byte 102,68,15,254,116,36,160 // paddd -0x60(%rsp),%xmm14 .byte 102,68,15,56,64,53,87,24,0,0 // pmulld 0x1857(%rip),%xmm14 # 9100 <_sk_clut_4D_sse41+0x2862> .byte 102,15,111,5,95,24,0,0 // movdqa 0x185f(%rip),%xmm0 # 9110 <_sk_clut_4D_sse41+0x2872> .byte 102,65,15,254,198 // paddd %xmm14,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,194 // movq %xmm0,%rdx .byte 137,211 // mov %edx,%ebx .byte 72,193,234,32 // shr $0x20,%rdx .byte 137,205 // mov %ecx,%ebp .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1 .byte 102,15,58,33,12,144,16 // insertps $0x10,(%rax,%rdx,4),%xmm1 .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0 .byte 102,15,58,33,200,32 // insertps $0x20,%xmm0,%xmm1 .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,15,58,33,200,48 // insertps $0x30,%xmm0,%xmm1 .byte 102,68,15,126,241 // movd %xmm14,%ecx .byte 102,69,15,58,22,247,1 // pextrd $0x1,%xmm14,%r15d .byte 102,69,15,58,22,244,2 // pextrd $0x2,%xmm14,%r12d .byte 102,69,15,58,22,245,3 // pextrd $0x3,%xmm14,%r13d .byte 102,68,15,254,242 // paddd %xmm2,%xmm14 .byte 102,76,15,58,22,242,1 // pextrq $0x1,%xmm14,%rdx .byte 102,76,15,126,243 // movq %xmm14,%rbx .byte 137,221 // mov %ebx,%ebp .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2 .byte 102,15,58,33,20,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm2 .byte 137,211 // mov %edx,%ebx .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0 .byte 102,15,58,33,208,32 // insertps $0x20,%xmm0,%xmm2 .byte 72,193,234,32 // shr $0x20,%rdx .byte 243,15,16,4,144 // movss (%rax,%rdx,4),%xmm0 .byte 102,15,58,33,208,48 // insertps $0x30,%xmm0,%xmm2 .byte 243,70,15,16,52,176 // movss (%rax,%r14,4),%xmm14 .byte 102,70,15,58,33,52,136,16 // insertps $0x10,(%rax,%r9,4),%xmm14 .byte 102,70,15,58,33,52,144,32 // insertps $0x20,(%rax,%r10,4),%xmm14 .byte 102,70,15,58,33,52,152,48 // insertps $0x30,(%rax,%r11,4),%xmm14 .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0 .byte 102,66,15,58,33,4,184,16 // insertps $0x10,(%rax,%r15,4),%xmm0 .byte 102,66,15,58,33,4,160,32 // insertps $0x20,(%rax,%r12,4),%xmm0 .byte 102,66,15,58,33,4,168,48 // insertps $0x30,(%rax,%r13,4),%xmm0 .byte 65,15,92,198 // subps %xmm14,%xmm0 .byte 65,15,89,199 // mulps %xmm15,%xmm0 .byte 65,15,88,198 // addps %xmm14,%xmm0 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 65,15,89,207 // mulps %xmm15,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 65,15,89,215 // mulps %xmm15,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 15,40,92,36,128 // movaps -0x80(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,88,197 // addps %xmm13,%xmm0 .byte 65,15,92,201 // subps %xmm9,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 65,15,92,212 // subps %xmm12,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,40,92,36,224 // movaps -0x20(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 65,15,92,208 // subps %xmm8,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 65,15,88,208 // addps %xmm8,%xmm2 .byte 15,91,28,36 // cvtdq2ps (%rsp),%xmm3 .byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,16,23,0,0 // movaps 0x1710(%rip),%xmm3 # 9130 <_sk_clut_4D_sse41+0x2892> .byte 76,137,194 // mov %r8,%rdx .byte 72,139,76,36,240 // mov -0x10(%rsp),%rcx .byte 76,139,68,36,248 // mov -0x8(%rsp),%r8 .byte 15,40,100,36,80 // movaps 0x50(%rsp),%xmm4 .byte 15,40,108,36,96 // movaps 0x60(%rsp),%xmm5 .byte 15,40,116,36,112 // movaps 0x70(%rsp),%xmm6 .byte 15,40,188,36,128,0,0,0 // movaps 0x80(%rsp),%xmm7 .byte 72,129,196,152,0,0,0 // add $0x98,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax BALIGN16 .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,1 // cmpb $0x1,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 252 // cld .byte 190,0,0,252,190 // mov $0xbefc0000,%esi .byte 0,0 // add %al,(%rax) .byte 252 // cld .byte 190,0,0,252,190 // mov $0xbefc0000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax) .byte 191,0,0,128,191 // mov $0xbf800000,%edi .byte 0,0 // add %al,(%rax) .byte 128,191,0,0,224,64,0 // cmpb $0x0,0x40e00000(%rdi) .byte 0,224 // add %ah,%al .byte 64,0,0 // add %al,(%rax) .byte 224,64 // loopne 7c5c <.literal16+0x1fc> .byte 0,0 // add %al,(%rax) .byte 224,64 // loopne 7c60 <.literal16+0x200> .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7c81 <.literal16+0x221> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7c85 <.literal16+0x225> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7c89 <.literal16+0x229> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7c8d <.literal16+0x22d> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7cc1 <.literal16+0x261> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7cc5 <.literal16+0x265> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7cc9 <.literal16+0x269> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7ccd <.literal16+0x26d> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d01 <.literal16+0x2a1> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d05 <.literal16+0x2a5> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d09 <.literal16+0x2a9> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d0d <.literal16+0x2ad> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d41 <.literal16+0x2e1> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d45 <.literal16+0x2e5> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d49 <.literal16+0x2e9> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 7d4d <.literal16+0x2ed> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,255 // cmpb $0xff,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a007d38 <_sk_clut_4D_sse41+0xa00149a> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3007d40 <_sk_clut_4D_sse41+0x30014a2> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax) .byte 67,0,0 // rex.XB add %al,(%r8) .byte 127,67 // jg 7dab <.literal16+0x34b> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 7daf <.literal16+0x34f> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 7db3 <.literal16+0x353> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,145,131,158 // add %al,-0x617c6ec1(%rax) .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi) .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,92 // ds pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi) .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi) .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,92 // ds pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 82 // push %rdx .byte 184,78,65,82,184 // mov $0xb852414e,%eax .byte 78 // rex.WRX .byte 65,82 // push %r10 .byte 184,78,65,82,184 // mov $0xb852414e,%eax .byte 78 // rex.WRX .byte 65,57,215 // cmp %edx,%r15d .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%rbx) .byte 57,215 // cmp %edx,%edi .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%rbx) .byte 186,159,98,60,186 // mov $0xba3c629f,%edx .byte 159 // lahf .byte 98 // (bad) .byte 60,186 // cmp $0xba,%al .byte 159 // lahf .byte 98 // (bad) .byte 60,186 // cmp $0xba,%al .byte 159 // lahf .byte 98 // (bad) .byte 60,109 // cmp $0x6d,%al .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 252 // cld .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi .byte 16,62 // adc %bh,(%rsi) .byte 252 // cld .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi .byte 16,62 // adc %bh,(%rsi) .byte 168,177 // test $0xb1,%al .byte 152 // cwtl .byte 59,168,177,152,59,168 // cmp -0x57c4674f(%rax),%ebp .byte 177,152 // mov $0x98,%cl .byte 59,168,177,152,59,0 // cmp 0x3b98b1(%rax),%ebp .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%rax) .byte 64,0,0 // add %al,(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 0,64,0 // add %al,0x0(%rax) .byte 0,0 // add %al,(%rax) .byte 64,0,0 // add %al,(%rax) .byte 0,64,0 // add %al,0x0(%rax) .byte 0,0 // add %al,(%rax) .byte 64,0,0 // add %al,(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,171,170 // addb $0xaa,-0x55(%rax) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 0,0 // add %al,(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,171,170 // addb $0xaa,-0x55(%rax) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,248,0,0 // addb $0x0,0xf8003b(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 7ff9 <.literal16+0x599> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 7ffd <.literal16+0x59d> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8001 <.literal16+0x5a1> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8005 <.literal16+0x5a5> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a008048 <_sk_clut_4D_sse41+0xa0017aa> .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008050 <_sk_clut_4D_sse41+0x30017b2> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,129,128,128,59,129 // incl -0x7ec47f80(%rcx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax) .byte 129,128,128,59,255,0,255,0,255,0 // addl $0xff00ff,0xff3b80(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,255 // or %bh,%bh .byte 10,255 // or %bh,%bh .byte 12,255 // or $0xff,%al .byte 14 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,128,55,128 // add %al,-0x7fc88000(%rax) .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 8,128,10,128,12,128 // or %al,-0x7ff37ff6(%rax) .byte 14 // (bad) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 811b <.literal16+0x6bb> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 811f <.literal16+0x6bf> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8123 <.literal16+0x6c3> .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8114 <.literal16+0x6b4> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8118 <.literal16+0x6b8> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 811c <.literal16+0x6bc> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8120 <.literal16+0x6c0> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 81a5 <.literal16+0x745> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8109 <.literal16+0x6a9> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3c14a <_sk_clut_4D_sse41+0xffffffffe9a358ac> .byte 220,63 // fdivrl (%rdi) .byte 81 // push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 81e4 <.literal16+0x784> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 81e8 <.literal16+0x788> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 81ec <.literal16+0x78c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 81f0 <.literal16+0x790> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8275 <.literal16+0x815> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 81d9 <.literal16+0x779> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3c21a <_sk_clut_4D_sse41+0xffffffffe9a3597c> .byte 220,63 // fdivrl (%rdi) .byte 81 // push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 82b4 <.literal16+0x854> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 82b8 <.literal16+0x858> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 82bc <.literal16+0x85c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 82c0 <.literal16+0x860> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8345 <.literal16+0x8e5> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 82a9 <.literal16+0x849> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3c2ea <_sk_clut_4D_sse41+0xffffffffe9a35a4c> .byte 220,63 // fdivrl (%rdi) .byte 81 // push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8384 <.literal16+0x924> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8388 <.literal16+0x928> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 838c <.literal16+0x92c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8390 <.literal16+0x930> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8415 <.literal16+0x9b5> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8379 <.literal16+0x919> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3c3ba <_sk_clut_4D_sse41+0xffffffffe9a35b1c> .byte 220,63 // fdivrl (%rdi) .byte 81 // push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8454 <.literal16+0x9f4> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8458 <.literal16+0x9f8> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 845c <.literal16+0x9fc> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8460 <.literal16+0xa00> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 84e5 <.literal16+0xa85> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8449 <.literal16+0x9e9> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3c48a <_sk_clut_4D_sse41+0xffffffffe9a35bec> .byte 220,63 // fdivrl (%rdi) .byte 81 // push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 127,67 // jg 8557 <.literal16+0xaf7> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 855b <.literal16+0xafb> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 855f <.literal16+0xaff> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8563 <.literal16+0xb03> .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 128,65,0,0 // addb $0x0,0x0(%rcx) .byte 128,65,0,0 // addb $0x0,0x0(%rcx) .byte 128,65,0,0 // addb $0x0,0x0(%rcx) .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx) .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax .byte 60,203 // cmp $0xcb,%al .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax .byte 13,60,111,18,3 // or $0x3126f3c,%eax .byte 59,111,18 // cmp 0x12(%rdi),%ebp .byte 3,59 // add (%rbx),%edi .byte 111 // outsl %ds:(%rsi),(%dx) .byte 18,3 // adc (%rbx),%al .byte 59,111,18 // cmp 0x12(%rdi),%ebp .byte 3,59 // add (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 163,59,10,215,163,59,10,215,163 // movabs %eax,0xa3d70a3ba3d70a3b .byte 59,10 // cmp (%rdx),%ecx .byte 215 // xlat %ds:(%rbx) .byte 163,59,194,24,17,60,194,24,17 // movabs %eax,0x1118c23c1118c23b .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%rcx) .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%rcx) .byte 60,203 // cmp $0xcb,%al .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 85e3 <.literal16+0xb83> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 85e7 <.literal16+0xb87> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 85eb <.literal16+0xb8b> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 85ef <.literal16+0xb8f> .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 865b <.literal16+0xbfb> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 865f <.literal16+0xbff> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8663 <.literal16+0xc03> .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,129,128,128,59,129 // add %al,-0x7ec47f80(%rcx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax) .byte 129,128,128,59,0,0,128,63,0,0 // addl $0x3f80,0x3b80(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 86d9 <.literal16+0xc79> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 86dd <.literal16+0xc7d> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 86e1 <.literal16+0xc81> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 86e5 <.literal16+0xc85> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 248 // clc .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 8749 <.literal16+0xce9> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 874d <.literal16+0xced> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8751 <.literal16+0xcf1> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8755 <.literal16+0xcf5> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 248 // clc .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 87b9 <.literal16+0xd59> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 87bd <.literal16+0xd5d> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 87c1 <.literal16+0xd61> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 87c5 <.literal16+0xd65> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,248 // add %bh,%al .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 124,66 // jl 8856 <.literal16+0xdf6> .byte 0,0 // add %al,(%rax) .byte 124,66 // jl 885a <.literal16+0xdfa> .byte 0,0 // add %al,(%rax) .byte 124,66 // jl 885e <.literal16+0xdfe> .byte 0,0 // add %al,(%rax) .byte 124,66 // jl 8862 <.literal16+0xe02> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 240,0,0 // lock add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 240,0,0 // lock add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 240,0,0 // lock add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 89e5 <.literal16+0xf85> .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 89e9 <.literal16+0xf89> .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 89ed <.literal16+0xf8d> .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 89f1 <.literal16+0xf91> .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax) .byte 5,255,255,255,9 // add $0x9ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30089e0 <_sk_clut_4D_sse41+0x3002142> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax) .byte 5,255,255,255,9 // add $0x9ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008a20 <_sk_clut_4D_sse41+0x3002182> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax) .byte 5,255,255,255,9 // add $0x9ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008a60 <_sk_clut_4D_sse41+0x30021c2> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8abb <.literal16+0x105b> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8abf <.literal16+0x105f> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8ac3 <.literal16+0x1063> .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax) .byte 5,255,255,255,9 // add $0x9ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008ab0 <_sk_clut_4D_sse41+0x3002212> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax) .byte 5,255,255,255,9 // add $0x9ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008af0 <_sk_clut_4D_sse41+0x3002252> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax) .byte 5,255,255,255,9 // add $0x9ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3008b30 <_sk_clut_4D_sse41+0x3002292> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,10 // decl (%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255,14 // decl (%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8b8b <.literal16+0x112b> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8b8f <.literal16+0x112f> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8b93 <.literal16+0x1133> .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,4 // add %al,0x4000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,4 // add %al,0x4000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,128,56 // add %al,0x38800000(%rax) .byte 0,0 // add %al,(%rax) .byte 128,56,0 // cmpb $0x0,(%rax) .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax) .byte 56,0 // cmp %al,(%rax) .byte 64,254 // rex (bad) .byte 255,0 // incl (%rax) .byte 64,254 // rex (bad) .byte 255,0 // incl (%rax) .byte 64,254 // rex (bad) .byte 255,0 // incl (%rax) .byte 64,254 // rex (bad) .byte 255,128,0,128,55,128 // incl -0x7fc88000(%rax) .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 255 // (bad) .byte 127,71 // jg 8c8b <.literal16+0x122b> .byte 0,255 // add %bh,%bh .byte 127,71 // jg 8c8f <.literal16+0x122f> .byte 0,255 // add %bh,%bh .byte 127,71 // jg 8c93 <.literal16+0x1233> .byte 0,255 // add %bh,%bh .byte 127,71 // jg 8c97 <.literal16+0x1237> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax) .byte 191,0,0,128,191 // mov $0xbf800000,%edi .byte 0,0 // add %al,(%rax) .byte 128,191,0,0,0,63,0 // cmpb $0x0,0x3f000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 208 // (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,89 // ds pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 152 // cwtl .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%rbx) .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax .byte 152 // cwtl .byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx) .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc09dca <_sk_clut_4D_sse41+0x2dc0352c> .byte 17,192 // adc %eax,%eax .byte 45,16,17,192,18 // sub $0x12c01110,%eax .byte 120,57 // js 8cfc <.literal16+0x129c> .byte 64,18,120,57 // adc 0x39(%rax),%dil .byte 64,18,120,57 // adc 0x39(%rax),%dil .byte 64,18,120,57 // adc 0x39(%rax),%dil .byte 64,32,148,90,62,32,148,90 // and %dl,0x5a94203e(%rdx,%rbx,2) .byte 62,32,148,90,62,32,148,90 // and %dl,%ds:0x5a94203e(%rdx,%rbx,2) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,0,24 // add %bl,%ds:(%rax) .byte 161,57,0,24,161,57,0,24,161 // movabs 0xa1180039a1180039,%eax .byte 57,0 // cmp %eax,(%rax) .byte 24,161,57,1,0,0 // sbb %ah,0x139(%rcx) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,111,43 // add %ch,0x2b(%rdi) .byte 231,187 // out %eax,$0xbb .byte 111 // outsl %ds:(%rsi),(%dx) .byte 43,231 // sub %edi,%esp .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx .byte 111 // outsl %ds:(%rsi),(%dx) .byte 43,231 // sub %edi,%esp .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx .byte 159 // lahf .byte 215 // xlat %ds:(%rbx) .byte 202,60,159 // lret $0x9f3c .byte 215 // xlat %ds:(%rbx) .byte 202,60,159 // lret $0x9f3c .byte 215 // xlat %ds:(%rbx) .byte 202,60,212 // lret $0xd43c .byte 100,84 // fs push %rsp .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp .byte 212 // (bad) .byte 100,84 // fs push %rsp .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp .byte 169,240,34,62,169 // test $0xa93e22f0,%eax .byte 240,34,62 // lock and (%rsi),%bh .byte 169,240,34,62,169 // test $0xa93e22f0,%eax .byte 240,34,62 // lock and (%rsi),%bh .byte 0,0 // add %al,(%rax) .byte 128,62,0 // cmpb $0x0,(%rsi) .byte 0,128,62,0,0,128 // add %al,-0x7fffffc2(%rax) .byte 62,0,0 // add %al,%ds:(%rax) .byte 128,62,0 // cmpb $0x0,(%rsi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,128,192,0,0,128 // add %al,-0x7fffff40(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,128,192,0,0,128 // add %al,-0x7fffff40(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,114 // cmpb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,114,28 // jb,pt 8ed2 <.literal16+0x1472> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8ed6 <.literal16+0x1476> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8eda <.literal16+0x147a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,85 // cmpb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641d65 <_sk_clut_4D_sse41+0x3d63b4c7> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641da5 <_sk_clut_4D_sse41+0x3d63b507> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 114,28 // jb 8f9e <.literal16+0x153e> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8fa2 <.literal16+0x1542> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8fa6 <.literal16+0x1546> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8faa <.literal16+0x154a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,114 // cmpb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,114,28 // jb,pt 8fe2 <.literal16+0x1582> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8fe6 <.literal16+0x1586> .byte 199 // (bad) .byte 62,114,28 // jb,pt 8fea <.literal16+0x158a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,85 // cmpb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641e75 <_sk_clut_4D_sse41+0x3d63b5d7> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d641eb5 <_sk_clut_4D_sse41+0x3d63b617> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 114,28 // jb 90ae <.literal16+0x164e> .byte 199 // (bad) .byte 62,114,28 // jb,pt 90b2 <.literal16+0x1652> .byte 199 // (bad) .byte 62,114,28 // jb,pt 90b6 <.literal16+0x1656> .byte 199 // (bad) .byte 62,114,28 // jb,pt 90ba <.literal16+0x165a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 114,249 // jb 90ab <.literal16+0x164b> .byte 127,63 // jg 90f3 <.literal16+0x1693> .byte 114,249 // jb 90af <.literal16+0x164f> .byte 127,63 // jg 90f7 <.literal16+0x1697> .byte 114,249 // jb 90b3 <.literal16+0x1653> .byte 127,63 // jg 90fb <.literal16+0x169b> .byte 114,249 // jb 90b7 <.literal16+0x1657> .byte 127,63 // jg 90ff <.literal16+0x169f> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 114,249 // jb 90eb <.literal16+0x168b> .byte 127,63 // jg 9133 <.literal16+0x16d3> .byte 114,249 // jb 90ef <.literal16+0x168f> .byte 127,63 // jg 9137 <.literal16+0x16d7> .byte 114,249 // jb 90f3 <.literal16+0x1693> .byte 127,63 // jg 913b <.literal16+0x16db> .byte 114,249 // jb 90f7 <.literal16+0x1697> .byte 127,63 // jg 913f <.literal16+0x16df> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128 // .byte 0x80 .byte 63 // (bad) BALIGN4 .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) BALIGN32 HIDDEN _sk_start_pipeline_sse2 .globl _sk_start_pipeline_sse2 FUNCTION(_sk_start_pipeline_sse2) _sk_start_pipeline_sse2: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,40 // sub $0x28,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,137,194 // mov %rax,%rdx .byte 72,137,77,176 // mov %rcx,-0x50(%rbp) .byte 73,57,206 // cmp %rcx,%r14 .byte 115,117 // jae a1 <_sk_start_pipeline_sse2+0xa1> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,4 // lea 0x4(%rax),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,77,192 // mov %r9,-0x40(%rbp) .byte 72,137,85,200 // mov %rdx,-0x38(%rbp) .byte 73,137,221 // mov %rbx,%r13 .byte 73,137,244 // mov %rsi,%r12 .byte 72,57,93,184 // cmp %rbx,-0x48(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 119,45 // ja 7d <_sk_start_pipeline_sse2+0x7d> .byte 76,139,125,208 // mov -0x30(%rbp),%r15 .byte 69,49,192 // xor %r8d,%r8d .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,250 // mov %r15,%rdx .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,141,87,4 // lea 0x4(%r15),%rdx .byte 73,131,199,8 // add $0x8,%r15 .byte 73,57,223 // cmp %rbx,%r15 .byte 73,137,215 // mov %rdx,%r15 .byte 118,215 // jbe 54 <_sk_start_pipeline_sse2+0x54> .byte 73,137,216 // mov %rbx,%r8 .byte 73,41,208 // sub %rdx,%r8 .byte 116,19 // je 98 <_sk_start_pipeline_sse2+0x98> .byte 76,137,207 // mov %r9,%rdi .byte 76,137,230 // mov %r12,%rsi .byte 76,137,241 // mov %r14,%rcx .byte 255,85,200 // callq *-0x38(%rbp) .byte 76,137,235 // mov %r13,%rbx .byte 76,139,77,192 // mov -0x40(%rbp),%r9 .byte 73,255,198 // inc %r14 .byte 76,59,117,176 // cmp -0x50(%rbp),%r14 .byte 117,165 // jne 46 <_sk_start_pipeline_sse2+0x46> .byte 72,131,196,40 // add $0x28,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 195 // retq HIDDEN _sk_just_return_sse2 .globl _sk_just_return_sse2 FUNCTION(_sk_just_return_sse2) _sk_just_return_sse2: .byte 195 // retq HIDDEN _sk_seed_shader_sse2 .globl _sk_seed_shader_sse2 FUNCTION(_sk_seed_shader_sse2) _sk_seed_shader_sse2: .byte 102,15,110,194 // movd %edx,%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 15,40,21,204,132,0,0 // movaps 0x84cc(%rip),%xmm2 # 8590 <_sk_clut_4D_sse2+0x15e8> .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,16,7 // movups (%rdi),%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 102,15,110,201 // movd %ecx,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,21,187,132,0,0 // movaps 0x84bb(%rip),%xmm2 # 85a0 <_sk_clut_4D_sse2+0x15f8> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,87,246 // xorps %xmm6,%xmm6 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_dither_sse2 .globl _sk_dither_sse2 FUNCTION(_sk_dither_sse2) _sk_dither_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,68,15,110,194 // movd %edx,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 243,68,15,111,79,32 // movdqu 0x20(%rdi),%xmm9 .byte 102,69,15,254,200 // paddd %xmm8,%xmm9 .byte 102,68,15,110,193 // movd %ecx,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 102,69,15,239,193 // pxor %xmm9,%xmm8 .byte 102,68,15,111,21,137,132,0,0 // movdqa 0x8489(%rip),%xmm10 # 85b0 <_sk_clut_4D_sse2+0x1608> .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,219,218 // pand %xmm10,%xmm11 .byte 102,65,15,114,243,5 // pslld $0x5,%xmm11 .byte 102,69,15,219,209 // pand %xmm9,%xmm10 .byte 102,65,15,114,242,4 // pslld $0x4,%xmm10 .byte 102,68,15,111,37,117,132,0,0 // movdqa 0x8475(%rip),%xmm12 # 85c0 <_sk_clut_4D_sse2+0x1618> .byte 102,68,15,111,45,124,132,0,0 // movdqa 0x847c(%rip),%xmm13 # 85d0 <_sk_clut_4D_sse2+0x1628> .byte 102,69,15,111,240 // movdqa %xmm8,%xmm14 .byte 102,69,15,219,245 // pand %xmm13,%xmm14 .byte 102,65,15,114,246,2 // pslld $0x2,%xmm14 .byte 102,69,15,219,233 // pand %xmm9,%xmm13 .byte 102,69,15,254,237 // paddd %xmm13,%xmm13 .byte 102,69,15,219,196 // pand %xmm12,%xmm8 .byte 102,65,15,114,208,1 // psrld $0x1,%xmm8 .byte 102,69,15,219,204 // pand %xmm12,%xmm9 .byte 102,65,15,114,209,2 // psrld $0x2,%xmm9 .byte 102,69,15,235,234 // por %xmm10,%xmm13 .byte 102,69,15,235,233 // por %xmm9,%xmm13 .byte 102,69,15,235,243 // por %xmm11,%xmm14 .byte 102,69,15,235,245 // por %xmm13,%xmm14 .byte 102,69,15,235,240 // por %xmm8,%xmm14 .byte 69,15,91,198 // cvtdq2ps %xmm14,%xmm8 .byte 68,15,89,5,55,132,0,0 // mulps 0x8437(%rip),%xmm8 # 85e0 <_sk_clut_4D_sse2+0x1638> .byte 68,15,88,5,63,132,0,0 // addps 0x843f(%rip),%xmm8 # 85f0 <_sk_clut_4D_sse2+0x1648> .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 68,15,95,201 // maxps %xmm1,%xmm9 .byte 68,15,93,211 // minps %xmm3,%xmm10 .byte 65,15,95,210 // maxps %xmm10,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_uniform_color_sse2 .globl _sk_uniform_color_sse2 FUNCTION(_sk_uniform_color_sse2) _sk_uniform_color_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_sse2 .globl _sk_black_color_sse2 FUNCTION(_sk_black_color_sse2) _sk_black_color_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,213,131,0,0 // movaps 0x83d5(%rip),%xmm3 # 8600 <_sk_clut_4D_sse2+0x1658> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_sse2 .globl _sk_white_color_sse2 FUNCTION(_sk_white_color_sse2) _sk_white_color_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,5,209,131,0,0 // movaps 0x83d1(%rip),%xmm0 # 8610 <_sk_clut_4D_sse2+0x1668> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_rgba_sse2 .globl _sk_load_rgba_sse2 FUNCTION(_sk_load_rgba_sse2) _sk_load_rgba_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 15,16,72,16 // movups 0x10(%rax),%xmm1 .byte 15,16,80,32 // movups 0x20(%rax),%xmm2 .byte 15,16,88,48 // movups 0x30(%rax),%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_store_rgba_sse2 .globl _sk_store_rgba_sse2 FUNCTION(_sk_store_rgba_sse2) _sk_store_rgba_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,17,0 // movups %xmm0,(%rax) .byte 15,17,72,16 // movups %xmm1,0x10(%rax) .byte 15,17,80,32 // movups %xmm2,0x20(%rax) .byte 15,17,88,48 // movups %xmm3,0x30(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_sse2 .globl _sk_clear_sse2 FUNCTION(_sk_clear_sse2) _sk_clear_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_sse2 .globl _sk_srcatop_sse2 FUNCTION(_sk_srcatop_sse2) _sk_srcatop_sse2: .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 68,15,40,5,145,131,0,0 // movaps 0x8391(%rip),%xmm8 # 8620 <_sk_clut_4D_sse2+0x1678> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_sse2 .globl _sk_dstatop_sse2 FUNCTION(_sk_dstatop_sse2) _sk_dstatop_sse2: .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 68,15,40,13,84,131,0,0 // movaps 0x8354(%rip),%xmm9 # 8630 <_sk_clut_4D_sse2+0x1688> .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,197 // mulps %xmm5,%xmm8 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,198 // mulps %xmm6,%xmm8 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 65,15,88,208 // addps %xmm8,%xmm2 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_sse2 .globl _sk_srcin_sse2 FUNCTION(_sk_srcin_sse2) _sk_srcin_sse2: .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_sse2 .globl _sk_dstin_sse2 FUNCTION(_sk_dstin_sse2) _sk_dstin_sse2: .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_sse2 .globl _sk_srcout_sse2 FUNCTION(_sk_srcout_sse2) _sk_srcout_sse2: .byte 68,15,40,5,248,130,0,0 // movaps 0x82f8(%rip),%xmm8 # 8640 <_sk_clut_4D_sse2+0x1698> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_sse2 .globl _sk_dstout_sse2 FUNCTION(_sk_dstout_sse2) _sk_dstout_sse2: .byte 68,15,40,5,232,130,0,0 // movaps 0x82e8(%rip),%xmm8 # 8650 <_sk_clut_4D_sse2+0x16a8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_sse2 .globl _sk_srcover_sse2 FUNCTION(_sk_srcover_sse2) _sk_srcover_sse2: .byte 68,15,40,5,203,130,0,0 // movaps 0x82cb(%rip),%xmm8 # 8660 <_sk_clut_4D_sse2+0x16b8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_sse2 .globl _sk_dstover_sse2 FUNCTION(_sk_dstover_sse2) _sk_dstover_sse2: .byte 68,15,40,5,159,130,0,0 // movaps 0x829f(%rip),%xmm8 # 8670 <_sk_clut_4D_sse2+0x16c8> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_sse2 .globl _sk_modulate_sse2 FUNCTION(_sk_modulate_sse2) _sk_modulate_sse2: .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_sse2 .globl _sk_multiply_sse2 FUNCTION(_sk_multiply_sse2) _sk_multiply_sse2: .byte 68,15,40,5,115,130,0,0 // movaps 0x8273(%rip),%xmm8 # 8680 <_sk_clut_4D_sse2+0x16d8> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,220 // mulps %xmm4,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,221 // mulps %xmm5,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,222 // mulps %xmm6,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_plus__sse2 .globl _sk_plus__sse2 FUNCTION(_sk_plus__sse2) _sk_plus__sse2: .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_sse2 .globl _sk_screen_sse2 FUNCTION(_sk_screen_sse2) _sk_screen_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,88,197 // addps %xmm5,%xmm8 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 68,15,92,193 // subps %xmm1,%xmm8 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 68,15,88,206 // addps %xmm6,%xmm9 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,92,202 // subps %xmm2,%xmm9 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,88,215 // addps %xmm7,%xmm10 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__sse2 .globl _sk_xor__sse2 FUNCTION(_sk_xor__sse2) _sk_xor__sse2: .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 15,40,29,168,129,0,0 // movaps 0x81a8(%rip),%xmm3 # 8690 <_sk_clut_4D_sse2+0x16e8> .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,92,216 // subps %xmm8,%xmm3 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,89,212 // mulps %xmm4,%xmm10 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,89,213 // mulps %xmm5,%xmm10 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,89,214 // mulps %xmm6,%xmm10 .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_darken_sse2 .globl _sk_darken_sse2 FUNCTION(_sk_darken_sse2) _sk_darken_sse2: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,95,201 // maxps %xmm1,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,95,193 // maxps %xmm9,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,95,209 // maxps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,19,129,0,0 // movaps 0x8113(%rip),%xmm2 # 86a0 <_sk_clut_4D_sse2+0x16f8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_lighten_sse2 .globl _sk_lighten_sse2 FUNCTION(_sk_lighten_sse2) _sk_lighten_sse2: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,93,201 // minps %xmm1,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,93,193 // minps %xmm9,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,184,128,0,0 // movaps 0x80b8(%rip),%xmm2 # 86b0 <_sk_clut_4D_sse2+0x1708> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_difference_sse2 .globl _sk_difference_sse2 FUNCTION(_sk_difference_sse2) _sk_difference_sse2: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 68,15,93,201 // minps %xmm1,%xmm9 .byte 69,15,88,201 // addps %xmm9,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,93,193 // minps %xmm9,%xmm8 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,82,128,0,0 // movaps 0x8052(%rip),%xmm2 # 86c0 <_sk_clut_4D_sse2+0x1718> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_exclusion_sse2 .globl _sk_exclusion_sse2 FUNCTION(_sk_exclusion_sse2) _sk_exclusion_sse2: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 68,15,89,197 // mulps %xmm5,%xmm8 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 .byte 15,40,21,18,128,0,0 // movaps 0x8012(%rip),%xmm2 # 86d0 <_sk_clut_4D_sse2+0x1728> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_colorburn_sse2 .globl _sk_colorburn_sse2 FUNCTION(_sk_colorburn_sse2) _sk_colorburn_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 68,15,40,21,5,128,0,0 // movaps 0x8005(%rip),%xmm10 # 86e0 <_sk_clut_4D_sse2+0x1738> .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 69,15,40,217 // movaps %xmm9,%xmm11 .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,94,192 // divps %xmm8,%xmm0 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,93,224 // minps %xmm0,%xmm12 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,40,224 // movaps %xmm8,%xmm12 .byte 69,15,194,227,0 // cmpeqps %xmm11,%xmm12 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 69,15,85,229 // andnps %xmm13,%xmm12 .byte 69,15,40,234 // movaps %xmm10,%xmm13 .byte 68,15,89,236 // mulps %xmm4,%xmm13 .byte 69,15,86,224 // orps %xmm8,%xmm12 .byte 68,15,40,196 // movaps %xmm4,%xmm8 .byte 68,15,194,199,0 // cmpeqps %xmm7,%xmm8 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 69,15,85,196 // andnps %xmm12,%xmm8 .byte 65,15,86,192 // orps %xmm8,%xmm0 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,92,229 // subps %xmm5,%xmm12 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 68,15,94,225 // divps %xmm1,%xmm12 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 69,15,93,236 // minps %xmm12,%xmm13 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,40,233 // movaps %xmm1,%xmm13 .byte 69,15,194,235,0 // cmpeqps %xmm11,%xmm13 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 69,15,88,224 // addps %xmm8,%xmm12 .byte 65,15,84,205 // andps %xmm13,%xmm1 .byte 69,15,85,236 // andnps %xmm12,%xmm13 .byte 68,15,88,197 // addps %xmm5,%xmm8 .byte 68,15,86,233 // orps %xmm1,%xmm13 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 68,15,88,233 // addps %xmm1,%xmm13 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1 .byte 68,15,84,193 // andps %xmm1,%xmm8 .byte 65,15,85,205 // andnps %xmm13,%xmm1 .byte 68,15,86,193 // orps %xmm1,%xmm8 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,94,202 // divps %xmm2,%xmm1 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,93,225 // minps %xmm1,%xmm12 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 65,15,92,204 // subps %xmm12,%xmm1 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 68,15,194,218,0 // cmpeqps %xmm2,%xmm11 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 65,15,84,211 // andps %xmm11,%xmm2 .byte 68,15,85,217 // andnps %xmm1,%xmm11 .byte 68,15,88,206 // addps %xmm6,%xmm9 .byte 68,15,86,218 // orps %xmm2,%xmm11 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 68,15,88,217 // addps %xmm1,%xmm11 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1 .byte 68,15,84,201 // andps %xmm1,%xmm9 .byte 65,15,85,203 // andnps %xmm11,%xmm1 .byte 68,15,86,201 // orps %xmm1,%xmm9 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_colordodge_sse2 .globl _sk_colordodge_sse2 FUNCTION(_sk_colordodge_sse2) _sk_colordodge_sse2: .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,40,21,187,126,0,0 // movaps 0x7ebb(%rip),%xmm10 # 86f0 <_sk_clut_4D_sse2+0x1748> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,89,225 // mulps %xmm9,%xmm12 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 68,15,94,192 // divps %xmm0,%xmm8 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 69,15,84,206 // andps %xmm14,%xmm9 .byte 68,15,85,240 // andnps %xmm0,%xmm14 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,40,196 // movaps %xmm12,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 68,15,92,211 // subps %xmm3,%xmm10 .byte 69,15,86,241 // orps %xmm9,%xmm14 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 69,15,88,241 // addps %xmm9,%xmm14 .byte 68,15,40,204 // movaps %xmm4,%xmm9 .byte 69,15,194,200,0 // cmpeqps %xmm8,%xmm9 .byte 65,15,84,193 // andps %xmm9,%xmm0 .byte 69,15,85,206 // andnps %xmm14,%xmm9 .byte 65,15,86,193 // orps %xmm9,%xmm0 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 68,15,92,225 // subps %xmm1,%xmm12 .byte 69,15,94,204 // divps %xmm12,%xmm9 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 68,15,89,225 // mulps %xmm1,%xmm12 .byte 69,15,93,233 // minps %xmm9,%xmm13 .byte 68,15,40,241 // movaps %xmm1,%xmm14 .byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 65,15,84,206 // andps %xmm14,%xmm1 .byte 69,15,85,245 // andnps %xmm13,%xmm14 .byte 69,15,40,204 // movaps %xmm12,%xmm9 .byte 68,15,88,205 // addps %xmm5,%xmm9 .byte 68,15,86,241 // orps %xmm1,%xmm14 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 68,15,88,241 // addps %xmm1,%xmm14 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 65,15,194,200,0 // cmpeqps %xmm8,%xmm1 .byte 68,15,84,201 // andps %xmm1,%xmm9 .byte 65,15,85,206 // andnps %xmm14,%xmm1 .byte 68,15,86,201 // orps %xmm1,%xmm9 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 68,15,89,230 // mulps %xmm6,%xmm12 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 68,15,94,225 // divps %xmm1,%xmm12 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,93,236 // minps %xmm12,%xmm13 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,194,203,0 // cmpeqps %xmm3,%xmm1 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 15,84,209 // andps %xmm1,%xmm2 .byte 65,15,85,205 // andnps %xmm13,%xmm1 .byte 15,86,202 // orps %xmm2,%xmm1 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 68,15,194,198,0 // cmpeqps %xmm6,%xmm8 .byte 68,15,88,222 // addps %xmm6,%xmm11 .byte 69,15,84,216 // andps %xmm8,%xmm11 .byte 68,15,85,193 // andnps %xmm1,%xmm8 .byte 69,15,86,195 // orps %xmm11,%xmm8 .byte 68,15,89,215 // mulps %xmm7,%xmm10 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_hardlight_sse2 .globl _sk_hardlight_sse2 FUNCTION(_sk_hardlight_sse2) _sk_hardlight_sse2: .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp) .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 68,15,40,29,112,125,0,0 // movaps 0x7d70(%rip),%xmm11 # 8700 <_sk_clut_4D_sse2+0x1758> .byte 69,15,40,211 // movaps %xmm11,%xmm10 .byte 68,15,92,215 // subps %xmm7,%xmm10 .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 68,15,92,219 // subps %xmm3,%xmm11 .byte 69,15,40,203 // movaps %xmm11,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,92,192 // subps %xmm0,%xmm8 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,40,247 // movaps %xmm7,%xmm14 .byte 68,15,40,255 // movaps %xmm7,%xmm15 .byte 68,15,92,253 // subps %xmm5,%xmm15 .byte 69,15,89,248 // mulps %xmm8,%xmm15 .byte 69,15,88,255 // addps %xmm15,%xmm15 .byte 68,15,40,228 // movaps %xmm4,%xmm12 .byte 69,15,92,231 // subps %xmm15,%xmm12 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 68,15,194,195,2 // cmpleps %xmm3,%xmm8 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 69,15,85,196 // andnps %xmm12,%xmm8 .byte 68,15,86,192 // orps %xmm0,%xmm8 .byte 69,15,40,251 // movaps %xmm11,%xmm15 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 68,15,89,223 // mulps %xmm7,%xmm11 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 68,15,89,254 // mulps %xmm6,%xmm15 .byte 68,15,88,248 // addps %xmm0,%xmm15 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 68,15,92,238 // subps %xmm6,%xmm13 .byte 68,15,89,232 // mulps %xmm0,%xmm13 .byte 69,15,88,237 // addps %xmm13,%xmm13 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 69,15,88,201 // addps %xmm9,%xmm9 .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 65,15,84,201 // andps %xmm9,%xmm1 .byte 68,15,85,200 // andnps %xmm0,%xmm9 .byte 68,15,86,201 // orps %xmm1,%xmm9 .byte 69,15,88,207 // addps %xmm15,%xmm9 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 68,15,40,108,36,232 // movaps -0x18(%rsp),%xmm13 .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,88,226 // addps %xmm10,%xmm12 .byte 68,15,40,210 // movaps %xmm2,%xmm10 .byte 69,15,88,210 // addps %xmm10,%xmm10 .byte 68,15,194,211,2 // cmpleps %xmm3,%xmm10 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 69,15,92,245 // subps %xmm13,%xmm14 .byte 68,15,89,240 // mulps %xmm0,%xmm14 .byte 69,15,88,246 // addps %xmm14,%xmm14 .byte 65,15,92,230 // subps %xmm14,%xmm4 .byte 65,15,84,210 // andps %xmm10,%xmm2 .byte 68,15,85,212 // andnps %xmm4,%xmm10 .byte 68,15,86,210 // orps %xmm2,%xmm10 .byte 69,15,88,212 // addps %xmm12,%xmm10 .byte 65,15,88,219 // addps %xmm11,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 65,15,40,245 // movaps %xmm13,%xmm6 .byte 255,224 // jmpq *%rax HIDDEN _sk_overlay_sse2 .globl _sk_overlay_sse2 FUNCTION(_sk_overlay_sse2) _sk_overlay_sse2: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,232 // movaps %xmm0,%xmm13 .byte 68,15,40,13,62,124,0,0 // movaps 0x7c3e(%rip),%xmm9 # 8710 <_sk_clut_4D_sse2+0x1768> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,92,215 // subps %xmm7,%xmm10 .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 69,15,89,221 // mulps %xmm13,%xmm11 .byte 68,15,92,203 // subps %xmm3,%xmm9 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,89,236 // mulps %xmm4,%xmm13 .byte 68,15,40,247 // movaps %xmm7,%xmm14 .byte 68,15,92,244 // subps %xmm4,%xmm14 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,194,207,2 // cmpleps %xmm7,%xmm1 .byte 69,15,88,237 // addps %xmm13,%xmm13 .byte 68,15,40,219 // movaps %xmm3,%xmm11 .byte 68,15,89,223 // mulps %xmm7,%xmm11 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 69,15,88,246 // addps %xmm14,%xmm14 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,92,230 // subps %xmm14,%xmm12 .byte 68,15,84,233 // andps %xmm1,%xmm13 .byte 65,15,85,204 // andnps %xmm12,%xmm1 .byte 65,15,86,205 // orps %xmm13,%xmm1 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 69,15,40,226 // movaps %xmm10,%xmm12 .byte 69,15,89,224 // mulps %xmm8,%xmm12 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 65,15,88,204 // addps %xmm12,%xmm1 .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 69,15,92,224 // subps %xmm8,%xmm12 .byte 68,15,89,197 // mulps %xmm5,%xmm8 .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 68,15,92,237 // subps %xmm5,%xmm13 .byte 68,15,40,245 // movaps %xmm5,%xmm14 .byte 69,15,88,246 // addps %xmm14,%xmm14 .byte 68,15,194,247,2 // cmpleps %xmm7,%xmm14 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 69,15,88,237 // addps %xmm13,%xmm13 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 69,15,84,198 // andps %xmm14,%xmm8 .byte 69,15,85,244 // andnps %xmm12,%xmm14 .byte 69,15,86,240 // orps %xmm8,%xmm14 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,198 // mulps %xmm6,%xmm8 .byte 69,15,88,194 // addps %xmm10,%xmm8 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,92,210 // subps %xmm2,%xmm10 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,92,230 // subps %xmm6,%xmm12 .byte 68,15,40,238 // movaps %xmm6,%xmm13 .byte 69,15,88,237 // addps %xmm13,%xmm13 .byte 68,15,194,239,2 // cmpleps %xmm7,%xmm13 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 69,15,88,228 // addps %xmm12,%xmm12 .byte 69,15,92,220 // subps %xmm12,%xmm11 .byte 65,15,84,213 // andps %xmm13,%xmm2 .byte 69,15,85,235 // andnps %xmm11,%xmm13 .byte 68,15,86,234 // orps %xmm2,%xmm13 .byte 69,15,88,197 // addps %xmm13,%xmm8 .byte 68,15,89,207 // mulps %xmm7,%xmm9 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_softlight_sse2 .globl _sk_softlight_sse2 FUNCTION(_sk_softlight_sse2) _sk_softlight_sse2: .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp) .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp) .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,87,228 // xorps %xmm12,%xmm12 .byte 68,15,194,231,1 // cmpltps %xmm7,%xmm12 .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 68,15,94,215 // divps %xmm7,%xmm10 .byte 69,15,84,212 // andps %xmm12,%xmm10 .byte 68,15,40,13,251,122,0,0 // movaps 0x7afb(%rip),%xmm9 # 8720 <_sk_clut_4D_sse2+0x1778> .byte 69,15,40,249 // movaps %xmm9,%xmm15 .byte 69,15,92,250 // subps %xmm10,%xmm15 .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 69,15,40,234 // movaps %xmm10,%xmm13 .byte 65,15,82,194 // rsqrtps %xmm10,%xmm0 .byte 15,83,200 // rcpps %xmm0,%xmm1 .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 69,15,88,210 // addps %xmm10,%xmm10 .byte 69,15,88,210 // addps %xmm10,%xmm10 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,40,53,213,122,0,0 // movaps 0x7ad5(%rip),%xmm14 # 8730 <_sk_clut_4D_sse2+0x1788> .byte 69,15,88,222 // addps %xmm14,%xmm11 .byte 68,15,89,216 // mulps %xmm0,%xmm11 .byte 68,15,40,21,213,122,0,0 // movaps 0x7ad5(%rip),%xmm10 # 8740 <_sk_clut_4D_sse2+0x1798> .byte 69,15,89,234 // mulps %xmm10,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 15,88,228 // addps %xmm4,%xmm4 .byte 15,88,228 // addps %xmm4,%xmm4 .byte 15,194,231,2 // cmpleps %xmm7,%xmm4 .byte 68,15,84,236 // andps %xmm4,%xmm13 .byte 15,85,225 // andnps %xmm1,%xmm4 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 65,15,86,229 // orps %xmm13,%xmm4 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 68,15,89,249 // mulps %xmm1,%xmm15 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 69,15,40,217 // movaps %xmm9,%xmm11 .byte 68,15,92,219 // subps %xmm3,%xmm11 .byte 65,15,40,203 // movaps %xmm11,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 68,15,92,239 // subps %xmm7,%xmm13 .byte 69,15,89,197 // mulps %xmm13,%xmm8 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 68,15,88,251 // addps %xmm3,%xmm15 .byte 68,15,89,253 // mulps %xmm5,%xmm15 .byte 15,194,195,2 // cmpleps %xmm3,%xmm0 .byte 68,15,84,248 // andps %xmm0,%xmm15 .byte 15,85,196 // andnps %xmm4,%xmm0 .byte 65,15,86,199 // orps %xmm15,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,198 // movaps %xmm6,%xmm8 .byte 68,15,94,199 // divps %xmm7,%xmm8 .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 69,15,40,249 // movaps %xmm9,%xmm15 .byte 69,15,92,248 // subps %xmm8,%xmm15 .byte 65,15,82,224 // rsqrtps %xmm8,%xmm4 .byte 15,83,228 // rcpps %xmm4,%xmm4 .byte 65,15,92,224 // subps %xmm8,%xmm4 .byte 69,15,89,194 // mulps %xmm10,%xmm8 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,194,207,2 // cmpleps %xmm7,%xmm1 .byte 68,15,84,193 // andps %xmm1,%xmm8 .byte 15,85,204 // andnps %xmm4,%xmm1 .byte 65,15,86,200 // orps %xmm8,%xmm1 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 65,15,40,224 // movaps %xmm8,%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 68,15,89,252 // mulps %xmm4,%xmm15 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 65,15,40,227 // movaps %xmm11,%xmm4 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 68,15,88,251 // addps %xmm3,%xmm15 .byte 68,15,89,254 // mulps %xmm6,%xmm15 .byte 68,15,194,195,2 // cmpleps %xmm3,%xmm8 .byte 69,15,84,248 // andps %xmm8,%xmm15 .byte 68,15,85,193 // andnps %xmm1,%xmm8 .byte 69,15,86,199 // orps %xmm15,%xmm8 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 68,15,40,124,36,216 // movaps -0x28(%rsp),%xmm15 .byte 65,15,40,207 // movaps %xmm15,%xmm1 .byte 15,94,207 // divps %xmm7,%xmm1 .byte 65,15,84,204 // andps %xmm12,%xmm1 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 68,15,88,241 // addps %xmm1,%xmm14 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 15,82,209 // rsqrtps %xmm1,%xmm2 .byte 15,83,210 // rcpps %xmm2,%xmm2 .byte 15,92,209 // subps %xmm1,%xmm2 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 68,15,89,244 // mulps %xmm4,%xmm14 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 65,15,40,207 // movaps %xmm15,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,194,207,2 // cmpleps %xmm7,%xmm1 .byte 68,15,84,209 // andps %xmm1,%xmm10 .byte 15,85,202 // andnps %xmm2,%xmm1 .byte 15,40,84,36,232 // movaps -0x18(%rsp),%xmm2 .byte 68,15,89,234 // mulps %xmm2,%xmm13 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 65,15,86,202 // orps %xmm10,%xmm1 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 65,15,89,231 // mulps %xmm15,%xmm4 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 65,15,40,227 // movaps %xmm11,%xmm4 .byte 65,15,89,231 // mulps %xmm15,%xmm4 .byte 65,15,88,229 // addps %xmm13,%xmm4 .byte 68,15,88,203 // addps %xmm3,%xmm9 .byte 69,15,89,207 // mulps %xmm15,%xmm9 .byte 69,15,40,215 // movaps %xmm15,%xmm10 .byte 15,194,211,2 // cmpleps %xmm3,%xmm2 .byte 68,15,84,202 // andps %xmm2,%xmm9 .byte 15,85,209 // andnps %xmm1,%xmm2 .byte 65,15,86,209 // orps %xmm9,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 68,15,89,223 // mulps %xmm7,%xmm11 .byte 65,15,88,219 // addps %xmm11,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 65,15,40,242 // movaps %xmm10,%xmm6 .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_hue_sse2 .globl _sk_hue_sse2 FUNCTION(_sk_hue_sse2) _sk_hue_sse2: .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 68,15,40,5,24,121,0,0 // movaps 0x7918(%rip),%xmm8 # 8780 <_sk_clut_4D_sse2+0x17d8> .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 68,15,92,217 // subps %xmm1,%xmm11 .byte 65,15,89,195 // mulps %xmm11,%xmm0 .byte 15,41,68,36,232 // movaps %xmm0,-0x18(%rsp) .byte 69,15,89,227 // mulps %xmm11,%xmm12 .byte 68,15,41,100,36,216 // movaps %xmm12,-0x28(%rsp) .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 68,15,40,229 // movaps %xmm5,%xmm12 .byte 68,15,40,237 // movaps %xmm5,%xmm13 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,41,68,36,200 // movaps %xmm0,-0x38(%rsp) .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 68,15,95,239 // maxps %xmm7,%xmm13 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 68,15,40,245 // movaps %xmm5,%xmm14 .byte 68,15,40,253 // movaps %xmm5,%xmm15 .byte 69,15,95,253 // maxps %xmm13,%xmm15 .byte 68,15,93,231 // minps %xmm7,%xmm12 .byte 69,15,93,244 // minps %xmm12,%xmm14 .byte 69,15,92,254 // subps %xmm14,%xmm15 .byte 69,15,40,226 // movaps %xmm10,%xmm12 .byte 68,15,93,226 // minps %xmm2,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,93,236 // minps %xmm12,%xmm13 .byte 69,15,40,226 // movaps %xmm10,%xmm12 .byte 68,15,95,226 // maxps %xmm2,%xmm12 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 69,15,95,244 // maxps %xmm12,%xmm14 .byte 69,15,92,245 // subps %xmm13,%xmm14 .byte 69,15,92,205 // subps %xmm13,%xmm9 .byte 69,15,92,213 // subps %xmm13,%xmm10 .byte 65,15,92,213 // subps %xmm13,%xmm2 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 68,15,89,251 // mulps %xmm3,%xmm15 .byte 69,15,89,207 // mulps %xmm15,%xmm9 .byte 69,15,89,215 // mulps %xmm15,%xmm10 .byte 65,15,89,215 // mulps %xmm15,%xmm2 .byte 69,15,87,228 // xorps %xmm12,%xmm12 .byte 69,15,94,206 // divps %xmm14,%xmm9 .byte 69,15,94,214 // divps %xmm14,%xmm10 .byte 65,15,94,214 // divps %xmm14,%xmm2 .byte 69,15,194,244,4 // cmpneqps %xmm12,%xmm14 .byte 69,15,84,206 // andps %xmm14,%xmm9 .byte 69,15,84,214 // andps %xmm14,%xmm10 .byte 65,15,84,214 // andps %xmm14,%xmm2 .byte 68,15,40,61,37,120,0,0 // movaps 0x7825(%rip),%xmm15 # 8750 <_sk_clut_4D_sse2+0x17a8> .byte 65,15,89,231 // mulps %xmm15,%xmm4 .byte 15,40,5,42,120,0,0 // movaps 0x782a(%rip),%xmm0 # 8760 <_sk_clut_4D_sse2+0x17b8> .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 68,15,40,53,44,120,0,0 // movaps 0x782c(%rip),%xmm14 # 8770 <_sk_clut_4D_sse2+0x17c8> .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,88,238 // addps %xmm6,%xmm13 .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 65,15,89,231 // mulps %xmm15,%xmm4 .byte 65,15,40,242 // movaps %xmm10,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 65,15,89,230 // mulps %xmm14,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 68,15,92,236 // subps %xmm4,%xmm13 .byte 69,15,88,205 // addps %xmm13,%xmm9 .byte 69,15,88,213 // addps %xmm13,%xmm10 .byte 68,15,88,234 // addps %xmm2,%xmm13 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,93,213 // minps %xmm13,%xmm2 .byte 65,15,40,241 // movaps %xmm9,%xmm6 .byte 15,93,242 // minps %xmm2,%xmm6 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,95,213 // maxps %xmm13,%xmm2 .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 15,95,226 // maxps %xmm2,%xmm4 .byte 69,15,89,249 // mulps %xmm9,%xmm15 .byte 65,15,89,194 // mulps %xmm10,%xmm0 .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 68,15,88,240 // addps %xmm0,%xmm14 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,194,214,2 // cmpleps %xmm6,%xmm2 .byte 69,15,40,254 // movaps %xmm14,%xmm15 .byte 68,15,92,254 // subps %xmm6,%xmm15 .byte 65,15,40,241 // movaps %xmm9,%xmm6 .byte 65,15,92,246 // subps %xmm14,%xmm6 .byte 65,15,89,246 // mulps %xmm14,%xmm6 .byte 65,15,94,247 // divps %xmm15,%xmm6 .byte 65,15,88,246 // addps %xmm14,%xmm6 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,85,198 // andnps %xmm6,%xmm0 .byte 68,15,84,202 // andps %xmm2,%xmm9 .byte 68,15,86,200 // orps %xmm0,%xmm9 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp) .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,85,201 // andnps %xmm9,%xmm1 .byte 69,15,92,206 // subps %xmm14,%xmm9 .byte 65,15,92,246 // subps %xmm14,%xmm6 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,92,230 // subps %xmm14,%xmm4 .byte 68,15,94,204 // divps %xmm4,%xmm9 .byte 69,15,88,206 // addps %xmm14,%xmm9 .byte 68,15,84,200 // andps %xmm0,%xmm9 .byte 68,15,86,201 // orps %xmm1,%xmm9 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,92,206 // subps %xmm14,%xmm1 .byte 65,15,89,206 // mulps %xmm14,%xmm1 .byte 65,15,94,207 // divps %xmm15,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,85,217 // andnps %xmm1,%xmm3 .byte 68,15,84,210 // andps %xmm2,%xmm10 .byte 68,15,86,211 // orps %xmm3,%xmm10 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,85,202 // andnps %xmm10,%xmm1 .byte 69,15,92,214 // subps %xmm14,%xmm10 .byte 68,15,89,214 // mulps %xmm6,%xmm10 .byte 68,15,94,212 // divps %xmm4,%xmm10 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 68,15,86,209 // orps %xmm1,%xmm10 .byte 65,15,40,205 // movaps %xmm13,%xmm1 .byte 65,15,92,206 // subps %xmm14,%xmm1 .byte 65,15,89,206 // mulps %xmm14,%xmm1 .byte 65,15,94,207 // divps %xmm15,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 68,15,84,234 // andps %xmm2,%xmm13 .byte 15,85,209 // andnps %xmm1,%xmm2 .byte 65,15,86,213 // orps %xmm13,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,85,202 // andnps %xmm2,%xmm1 .byte 65,15,92,214 // subps %xmm14,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,94,212 // divps %xmm4,%xmm2 .byte 65,15,88,214 // addps %xmm14,%xmm2 .byte 15,84,208 // andps %xmm0,%xmm2 .byte 15,86,209 // orps %xmm1,%xmm2 .byte 69,15,95,204 // maxps %xmm12,%xmm9 .byte 69,15,95,212 // maxps %xmm12,%xmm10 .byte 65,15,95,212 // maxps %xmm12,%xmm2 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,76,36,232 // movaps -0x18(%rsp),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6 .byte 15,89,222 // mulps %xmm6,%xmm3 .byte 15,40,76,36,216 // movaps -0x28(%rsp),%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 69,15,88,195 // addps %xmm11,%xmm8 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3 .byte 15,40,124,36,184 // movaps -0x48(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_saturation_sse2 .globl _sk_saturation_sse2 FUNCTION(_sk_saturation_sse2) _sk_saturation_sse2: .byte 68,15,40,231 // movaps %xmm7,%xmm12 .byte 68,15,40,198 // movaps %xmm6,%xmm8 .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 68,15,40,216 // movaps %xmm0,%xmm11 .byte 68,15,40,215 // movaps %xmm7,%xmm10 .byte 68,15,89,212 // mulps %xmm4,%xmm10 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,41,116,36,184 // movaps %xmm6,-0x48(%rsp) .byte 68,15,40,207 // movaps %xmm7,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp) .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 69,15,40,232 // movaps %xmm8,%xmm13 .byte 68,15,41,108,36,168 // movaps %xmm13,-0x58(%rsp) .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,41,100,36,216 // movaps %xmm4,-0x28(%rsp) .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp) .byte 15,95,218 // maxps %xmm2,%xmm3 .byte 65,15,40,203 // movaps %xmm11,%xmm1 .byte 15,95,203 // maxps %xmm3,%xmm1 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,93,218 // minps %xmm2,%xmm3 .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 15,93,211 // minps %xmm3,%xmm2 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 65,15,89,204 // mulps %xmm12,%xmm1 .byte 65,15,40,228 // movaps %xmm12,%xmm4 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,93,208 // minps %xmm0,%xmm2 .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 68,15,93,194 // minps %xmm2,%xmm8 .byte 65,15,40,209 // movaps %xmm9,%xmm2 .byte 15,95,208 // maxps %xmm0,%xmm2 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,95,218 // maxps %xmm2,%xmm3 .byte 65,15,92,216 // subps %xmm8,%xmm3 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 69,15,92,208 // subps %xmm8,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 68,15,94,211 // divps %xmm3,%xmm10 .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 68,15,94,203 // divps %xmm3,%xmm9 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,94,195 // divps %xmm3,%xmm0 .byte 15,194,218,4 // cmpneqps %xmm2,%xmm3 .byte 68,15,84,211 // andps %xmm3,%xmm10 .byte 68,15,84,203 // andps %xmm3,%xmm9 .byte 15,84,195 // andps %xmm3,%xmm0 .byte 68,15,40,5,190,117,0,0 // movaps 0x75be(%rip),%xmm8 # 8790 <_sk_clut_4D_sse2+0x17e8> .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,40,13,192,117,0,0 // movaps 0x75c0(%rip),%xmm1 # 87a0 <_sk_clut_4D_sse2+0x17f8> .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 68,15,40,37,191,117,0,0 // movaps 0x75bf(%rip),%xmm12 # 87b0 <_sk_clut_4D_sse2+0x1808> .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 68,15,88,235 // addps %xmm3,%xmm13 .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,40,217 // movaps %xmm9,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 68,15,89,239 // mulps %xmm7,%xmm13 .byte 68,15,92,234 // subps %xmm2,%xmm13 .byte 69,15,88,213 // addps %xmm13,%xmm10 .byte 69,15,88,205 // addps %xmm13,%xmm9 .byte 68,15,88,232 // addps %xmm0,%xmm13 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,93,197 // minps %xmm13,%xmm0 .byte 65,15,40,218 // movaps %xmm10,%xmm3 .byte 15,93,216 // minps %xmm0,%xmm3 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,95,197 // maxps %xmm13,%xmm0 .byte 69,15,40,242 // movaps %xmm10,%xmm14 .byte 68,15,95,240 // maxps %xmm0,%xmm14 .byte 69,15,89,194 // mulps %xmm10,%xmm8 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 68,15,88,225 // addps %xmm1,%xmm12 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,194,211,2 // cmpleps %xmm3,%xmm2 .byte 65,15,40,244 // movaps %xmm12,%xmm6 .byte 15,92,243 // subps %xmm3,%xmm6 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,92,196 // subps %xmm12,%xmm0 .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 15,94,198 // divps %xmm6,%xmm0 .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,85,200 // andnps %xmm0,%xmm1 .byte 68,15,84,210 // andps %xmm2,%xmm10 .byte 68,15,86,209 // orps %xmm1,%xmm10 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 68,15,40,5,36,117,0,0 // movaps 0x7524(%rip),%xmm8 # 87c0 <_sk_clut_4D_sse2+0x1818> .byte 65,15,40,224 // movaps %xmm8,%xmm4 .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 15,88,253 // addps %xmm5,%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 65,15,194,222,1 // cmpltps %xmm14,%xmm3 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 65,15,85,194 // andnps %xmm10,%xmm0 .byte 69,15,92,212 // subps %xmm12,%xmm10 .byte 65,15,92,204 // subps %xmm12,%xmm1 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 69,15,92,244 // subps %xmm12,%xmm14 .byte 69,15,94,214 // divps %xmm14,%xmm10 .byte 69,15,88,212 // addps %xmm12,%xmm10 .byte 68,15,84,211 // andps %xmm3,%xmm10 .byte 68,15,86,208 // orps %xmm0,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,92,196 // subps %xmm12,%xmm0 .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 15,94,198 // divps %xmm6,%xmm0 .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 68,15,40,250 // movaps %xmm2,%xmm15 .byte 68,15,85,248 // andnps %xmm0,%xmm15 .byte 68,15,84,202 // andps %xmm2,%xmm9 .byte 69,15,86,207 // orps %xmm15,%xmm9 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 65,15,85,193 // andnps %xmm9,%xmm0 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 69,15,94,206 // divps %xmm14,%xmm9 .byte 69,15,88,204 // addps %xmm12,%xmm9 .byte 68,15,84,203 // andps %xmm3,%xmm9 .byte 68,15,86,200 // orps %xmm0,%xmm9 .byte 65,15,40,197 // movaps %xmm13,%xmm0 .byte 65,15,92,196 // subps %xmm12,%xmm0 .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 15,94,198 // divps %xmm6,%xmm0 .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 68,15,84,234 // andps %xmm2,%xmm13 .byte 15,85,208 // andnps %xmm0,%xmm2 .byte 65,15,86,213 // orps %xmm13,%xmm2 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,85,194 // andnps %xmm2,%xmm0 .byte 65,15,92,212 // subps %xmm12,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 65,15,94,214 // divps %xmm14,%xmm2 .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 15,84,211 // andps %xmm3,%xmm2 .byte 15,86,208 // orps %xmm0,%xmm2 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 68,15,95,208 // maxps %xmm0,%xmm10 .byte 68,15,95,200 // maxps %xmm0,%xmm9 .byte 15,95,208 // maxps %xmm0,%xmm2 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,40,92,36,184 // movaps -0x48(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 68,15,40,229 // movaps %xmm5,%xmm12 .byte 65,15,92,228 // subps %xmm12,%xmm4 .byte 68,15,89,220 // mulps %xmm4,%xmm11 .byte 68,15,88,216 // addps %xmm0,%xmm11 .byte 69,15,88,218 // addps %xmm10,%xmm11 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,76,36,216 // movaps -0x28(%rsp),%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 15,89,100,36,232 // mulps -0x18(%rsp),%xmm4 .byte 15,40,68,36,168 // movaps -0x58(%rsp),%xmm0 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 68,15,88,196 // addps %xmm4,%xmm8 .byte 68,15,88,194 // addps %xmm2,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 65,15,40,252 // movaps %xmm12,%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_color_sse2 .globl _sk_color_sse2 FUNCTION(_sk_color_sse2) _sk_color_sse2: .byte 68,15,40,199 // movaps %xmm7,%xmm8 .byte 68,15,40,230 // movaps %xmm6,%xmm12 .byte 68,15,41,100,36,216 // movaps %xmm12,-0x28(%rsp) .byte 68,15,40,221 // movaps %xmm5,%xmm11 .byte 68,15,41,92,36,232 // movaps %xmm11,-0x18(%rsp) .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,41,84,36,184 // movaps %xmm2,-0x48(%rsp) .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 68,15,40,207 // movaps %xmm7,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 68,15,40,45,194,115,0,0 // movaps 0x73c2(%rip),%xmm13 # 87d0 <_sk_clut_4D_sse2+0x1828> .byte 68,15,40,198 // movaps %xmm6,%xmm8 .byte 69,15,89,197 // mulps %xmm13,%xmm8 .byte 68,15,40,53,194,115,0,0 // movaps 0x73c2(%rip),%xmm14 # 87e0 <_sk_clut_4D_sse2+0x1838> .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,29,190,115,0,0 // movaps 0x73be(%rip),%xmm11 # 87f0 <_sk_clut_4D_sse2+0x1848> .byte 69,15,89,227 // mulps %xmm11,%xmm12 .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,89,197 // mulps %xmm13,%xmm0 .byte 69,15,40,250 // movaps %xmm10,%xmm15 .byte 69,15,89,254 // mulps %xmm14,%xmm15 .byte 68,15,88,248 // addps %xmm0,%xmm15 .byte 68,15,40,5,170,115,0,0 // movaps 0x73aa(%rip),%xmm8 # 8800 <_sk_clut_4D_sse2+0x1858> .byte 65,15,40,224 // movaps %xmm8,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,89,252 // mulps %xmm4,%xmm7 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,89,195 // mulps %xmm11,%xmm0 .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 68,15,92,224 // subps %xmm0,%xmm12 .byte 69,15,88,204 // addps %xmm12,%xmm9 .byte 69,15,88,212 // addps %xmm12,%xmm10 .byte 68,15,88,225 // addps %xmm1,%xmm12 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,93,196 // minps %xmm12,%xmm0 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 15,93,200 // minps %xmm0,%xmm1 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,95,196 // maxps %xmm12,%xmm0 .byte 69,15,40,249 // movaps %xmm9,%xmm15 .byte 68,15,95,248 // maxps %xmm0,%xmm15 .byte 69,15,89,233 // mulps %xmm9,%xmm13 .byte 69,15,89,242 // mulps %xmm10,%xmm14 .byte 69,15,88,245 // addps %xmm13,%xmm14 .byte 69,15,89,220 // mulps %xmm12,%xmm11 .byte 69,15,88,222 // addps %xmm14,%xmm11 .byte 69,15,87,237 // xorps %xmm13,%xmm13 .byte 68,15,194,233,2 // cmpleps %xmm1,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 68,15,92,241 // subps %xmm1,%xmm14 .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 65,15,94,206 // divps %xmm14,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,40,197 // movaps %xmm13,%xmm0 .byte 15,85,193 // andnps %xmm1,%xmm0 .byte 69,15,84,205 // andps %xmm13,%xmm9 .byte 68,15,86,200 // orps %xmm0,%xmm9 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,41,84,36,200 // movaps %xmm2,-0x38(%rsp) .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,41,92,36,184 // movaps %xmm3,-0x48(%rsp) .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,85,201 // andnps %xmm9,%xmm1 .byte 69,15,92,203 // subps %xmm11,%xmm9 .byte 65,15,92,219 // subps %xmm11,%xmm3 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 69,15,92,251 // subps %xmm11,%xmm15 .byte 69,15,94,207 // divps %xmm15,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 68,15,84,200 // andps %xmm0,%xmm9 .byte 68,15,86,201 // orps %xmm1,%xmm9 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 65,15,94,206 // divps %xmm14,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,40,213 // movaps %xmm13,%xmm2 .byte 15,85,209 // andnps %xmm1,%xmm2 .byte 69,15,84,213 // andps %xmm13,%xmm10 .byte 68,15,86,210 // orps %xmm2,%xmm10 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,85,202 // andnps %xmm10,%xmm1 .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 69,15,94,215 // divps %xmm15,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 68,15,86,209 // orps %xmm1,%xmm10 .byte 65,15,40,204 // movaps %xmm12,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 65,15,94,206 // divps %xmm14,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 69,15,84,229 // andps %xmm13,%xmm12 .byte 68,15,85,233 // andnps %xmm1,%xmm13 .byte 69,15,86,236 // orps %xmm12,%xmm13 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,85,205 // andnps %xmm13,%xmm1 .byte 69,15,92,235 // subps %xmm11,%xmm13 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,94,239 // divps %xmm15,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 68,15,84,232 // andps %xmm0,%xmm13 .byte 68,15,86,233 // orps %xmm1,%xmm13 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 68,15,95,200 // maxps %xmm0,%xmm9 .byte 68,15,95,208 // maxps %xmm0,%xmm10 .byte 68,15,95,232 // maxps %xmm0,%xmm13 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 65,15,88,249 // addps %xmm9,%xmm7 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,40,84,36,232 // movaps -0x18(%rsp),%xmm2 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 65,15,88,234 // addps %xmm10,%xmm5 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,68,36,216 // movaps -0x28(%rsp),%xmm0 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 68,15,88,196 // addps %xmm4,%xmm8 .byte 69,15,88,197 // addps %xmm13,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,40,92,36,184 // movaps -0x48(%rsp),%xmm3 .byte 15,40,124,36,200 // movaps -0x38(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_luminosity_sse2 .globl _sk_luminosity_sse2 FUNCTION(_sk_luminosity_sse2) _sk_luminosity_sse2: .byte 68,15,40,215 // movaps %xmm7,%xmm10 .byte 15,41,116,36,200 // movaps %xmm6,-0x38(%rsp) .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp) .byte 15,41,100,36,216 // movaps %xmm4,-0x28(%rsp) .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 68,15,40,205 // movaps %xmm5,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 15,89,222 // mulps %xmm6,%xmm3 .byte 68,15,40,37,193,113,0,0 // movaps 0x71c1(%rip),%xmm12 # 8810 <_sk_clut_4D_sse2+0x1868> .byte 68,15,40,199 // movaps %xmm7,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 .byte 68,15,40,45,193,113,0,0 // movaps 0x71c1(%rip),%xmm13 # 8820 <_sk_clut_4D_sse2+0x1878> .byte 68,15,40,241 // movaps %xmm1,%xmm14 .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,88,240 // addps %xmm8,%xmm14 .byte 68,15,40,29,189,113,0,0 // movaps 0x71bd(%rip),%xmm11 # 8830 <_sk_clut_4D_sse2+0x1888> .byte 68,15,40,5,197,113,0,0 // movaps 0x71c5(%rip),%xmm8 # 8840 <_sk_clut_4D_sse2+0x1898> .byte 69,15,40,248 // movaps %xmm8,%xmm15 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 68,15,92,248 // subps %xmm0,%xmm15 .byte 65,15,89,255 // mulps %xmm15,%xmm7 .byte 65,15,89,207 // mulps %xmm15,%xmm1 .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp) .byte 68,15,89,250 // mulps %xmm2,%xmm15 .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 65,15,88,214 // addps %xmm14,%xmm2 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 69,15,89,213 // mulps %xmm13,%xmm10 .byte 69,15,88,214 // addps %xmm14,%xmm10 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 68,15,40,244 // movaps %xmm4,%xmm14 .byte 69,15,89,243 // mulps %xmm11,%xmm14 .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 65,15,92,214 // subps %xmm14,%xmm2 .byte 68,15,88,202 // addps %xmm2,%xmm9 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,93,210 // minps %xmm2,%xmm10 .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 65,15,93,226 // minps %xmm10,%xmm4 .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,95,210 // maxps %xmm2,%xmm10 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 69,15,95,242 // maxps %xmm10,%xmm14 .byte 69,15,89,225 // mulps %xmm9,%xmm12 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,221 // addps %xmm13,%xmm11 .byte 69,15,87,228 // xorps %xmm12,%xmm12 .byte 68,15,194,228,2 // cmpleps %xmm4,%xmm12 .byte 69,15,40,211 // movaps %xmm11,%xmm10 .byte 68,15,92,212 // subps %xmm4,%xmm10 .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 65,15,92,227 // subps %xmm11,%xmm4 .byte 65,15,89,227 // mulps %xmm11,%xmm4 .byte 65,15,94,226 // divps %xmm10,%xmm4 .byte 65,15,88,227 // addps %xmm11,%xmm4 .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 68,15,85,236 // andnps %xmm4,%xmm13 .byte 69,15,84,204 // andps %xmm12,%xmm9 .byte 69,15,86,205 // orps %xmm13,%xmm9 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp) .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 68,15,92,197 // subps %xmm5,%xmm8 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 68,15,40,236 // movaps %xmm4,%xmm13 .byte 65,15,194,230,1 // cmpltps %xmm14,%xmm4 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,85,193 // andnps %xmm9,%xmm0 .byte 69,15,92,203 // subps %xmm11,%xmm9 .byte 69,15,92,235 // subps %xmm11,%xmm13 .byte 69,15,89,205 // mulps %xmm13,%xmm9 .byte 69,15,92,243 // subps %xmm11,%xmm14 .byte 69,15,94,206 // divps %xmm14,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 68,15,84,204 // andps %xmm4,%xmm9 .byte 68,15,86,200 // orps %xmm0,%xmm9 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 65,15,92,195 // subps %xmm11,%xmm0 .byte 65,15,89,195 // mulps %xmm11,%xmm0 .byte 65,15,94,194 // divps %xmm10,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 65,15,40,204 // movaps %xmm12,%xmm1 .byte 15,85,200 // andnps %xmm0,%xmm1 .byte 65,15,84,220 // andps %xmm12,%xmm3 .byte 15,86,217 // orps %xmm1,%xmm3 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,85,195 // andnps %xmm3,%xmm0 .byte 65,15,92,219 // subps %xmm11,%xmm3 .byte 65,15,89,221 // mulps %xmm13,%xmm3 .byte 65,15,94,222 // divps %xmm14,%xmm3 .byte 65,15,88,219 // addps %xmm11,%xmm3 .byte 15,84,220 // andps %xmm4,%xmm3 .byte 15,86,216 // orps %xmm0,%xmm3 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 65,15,92,195 // subps %xmm11,%xmm0 .byte 65,15,89,195 // mulps %xmm11,%xmm0 .byte 65,15,94,194 // divps %xmm10,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 65,15,84,212 // andps %xmm12,%xmm2 .byte 68,15,85,224 // andnps %xmm0,%xmm12 .byte 68,15,86,226 // orps %xmm2,%xmm12 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,85,196 // andnps %xmm12,%xmm0 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,94,230 // divps %xmm14,%xmm12 .byte 69,15,88,227 // addps %xmm11,%xmm12 .byte 68,15,84,228 // andps %xmm4,%xmm12 .byte 68,15,86,224 // orps %xmm0,%xmm12 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 68,15,95,200 // maxps %xmm0,%xmm9 .byte 15,95,216 // maxps %xmm0,%xmm3 .byte 68,15,95,224 // maxps %xmm0,%xmm12 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,40,100,36,216 // movaps -0x28(%rsp),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 65,15,88,249 // addps %xmm9,%xmm7 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 68,15,40,84,36,232 // movaps -0x18(%rsp),%xmm10 .byte 65,15,89,194 // mulps %xmm10,%xmm0 .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 68,15,89,198 // mulps %xmm6,%xmm8 .byte 69,15,88,199 // addps %xmm15,%xmm8 .byte 69,15,88,196 // addps %xmm12,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 65,15,40,234 // movaps %xmm10,%xmm5 .byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_rgba_8888_sse2 .globl _sk_srcover_rgba_8888_sse2 FUNCTION(_sk_srcover_rgba_8888_sse2) _sk_srcover_rgba_8888_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,228,0,0,0 // jne 1966 <_sk_srcover_rgba_8888_sse2+0x104> .byte 243,69,15,111,4,129 // movdqu (%r9,%rax,4),%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 102,15,111,53,189,111,0,0 // movdqa 0x6fbd(%rip),%xmm6 # 8850 <_sk_clut_4D_sse2+0x18a8> .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,219,254 // pand %xmm6,%xmm7 .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6 .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8 .byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7 .byte 68,15,40,5,141,111,0,0 // movaps 0x6f8d(%rip),%xmm8 # 8860 <_sk_clut_4D_sse2+0x18b8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 68,15,40,37,145,111,0,0 // movaps 0x6f91(%rip),%xmm12 # 8870 <_sk_clut_4D_sse2+0x18c8> .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 65,15,89,204 // mulps %xmm12,%xmm1 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 68,15,89,213 // mulps %xmm5,%xmm10 .byte 68,15,88,209 // addps %xmm1,%xmm10 .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,89,222 // mulps %xmm6,%xmm11 .byte 68,15,88,218 // addps %xmm2,%xmm11 .byte 65,15,89,220 // mulps %xmm12,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,88,195 // addps %xmm3,%xmm8 .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0 .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1 .byte 102,15,114,241,8 // pslld $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,65,15,91,211 // cvtps2dq %xmm11,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 .byte 102,15,114,240,24 // pslld $0x18,%xmm0 .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 102,15,235,193 // por %xmm1,%xmm0 .byte 117,84 // jne 19a0 <_sk_srcover_rgba_8888_sse2+0x13e> .byte 243,65,15,127,4,129 // movdqu %xmm0,(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,90 // je 19cd <_sk_srcover_rgba_8888_sse2+0x16b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 1995 <_sk_srcover_rgba_8888_sse2+0x133> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 15,133,0,255,255,255 // jne 1888 <_sk_srcover_rgba_8888_sse2+0x26> .byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,69,15,18,4,129 // movlpd (%r9,%rax,4),%xmm8 .byte 233,232,254,255,255 // jmpq 1888 <_sk_srcover_rgba_8888_sse2+0x26> .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,43 // je 19d8 <_sk_srcover_rgba_8888_sse2+0x176> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 19c5 <_sk_srcover_rgba_8888_sse2+0x163> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,153 // jne 1952 <_sk_srcover_rgba_8888_sse2+0xf0> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,76,129,8 // movd %xmm1,0x8(%r9,%rax,4) .byte 102,65,15,214,4,129 // movq %xmm0,(%r9,%rax,4) .byte 235,133 // jmp 1952 <_sk_srcover_rgba_8888_sse2+0xf0> .byte 102,69,15,110,4,129 // movd (%r9,%rax,4),%xmm8 .byte 233,176,254,255,255 // jmpq 1888 <_sk_srcover_rgba_8888_sse2+0x26> .byte 102,65,15,126,4,129 // movd %xmm0,(%r9,%rax,4) .byte 233,111,255,255,255 // jmpq 1952 <_sk_srcover_rgba_8888_sse2+0xf0> HIDDEN _sk_clamp_0_sse2 .globl _sk_clamp_0_sse2 FUNCTION(_sk_clamp_0_sse2) _sk_clamp_0_sse2: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,95,192 // maxps %xmm8,%xmm0 .byte 65,15,95,200 // maxps %xmm8,%xmm1 .byte 65,15,95,208 // maxps %xmm8,%xmm2 .byte 65,15,95,216 // maxps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_1_sse2 .globl _sk_clamp_1_sse2 FUNCTION(_sk_clamp_1_sse2) _sk_clamp_1_sse2: .byte 68,15,40,5,125,110,0,0 // movaps 0x6e7d(%rip),%xmm8 # 8880 <_sk_clut_4D_sse2+0x18d8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 65,15,93,208 // minps %xmm8,%xmm2 .byte 65,15,93,216 // minps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_sse2 .globl _sk_clamp_a_sse2 FUNCTION(_sk_clamp_a_sse2) _sk_clamp_a_sse2: .byte 15,93,29,114,110,0,0 // minps 0x6e72(%rip),%xmm3 # 8890 <_sk_clut_4D_sse2+0x18e8> .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 15,93,211 // minps %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_a_dst_sse2 .globl _sk_clamp_a_dst_sse2 FUNCTION(_sk_clamp_a_dst_sse2) _sk_clamp_a_dst_sse2: .byte 15,93,61,110,110,0,0 // minps 0x6e6e(%rip),%xmm7 # 88a0 <_sk_clut_4D_sse2+0x18f8> .byte 15,93,231 // minps %xmm7,%xmm4 .byte 15,93,239 // minps %xmm7,%xmm5 .byte 15,93,247 // minps %xmm7,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_sse2 .globl _sk_set_rgb_sse2 FUNCTION(_sk_set_rgb_sse2) _sk_set_rgb_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_sse2 .globl _sk_swap_rb_sse2 FUNCTION(_sk_swap_rb_sse2) _sk_swap_rb_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_sse2 .globl _sk_invert_sse2 FUNCTION(_sk_invert_sse2) _sk_invert_sse2: .byte 68,15,40,5,58,110,0,0 // movaps 0x6e3a(%rip),%xmm8 # 88b0 <_sk_clut_4D_sse2+0x1908> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 68,15,92,209 // subps %xmm1,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 68,15,92,218 // subps %xmm2,%xmm11 .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_src_dst_sse2 .globl _sk_move_src_dst_sse2 FUNCTION(_sk_move_src_dst_sse2) _sk_move_src_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_sse2 .globl _sk_move_dst_src_sse2 FUNCTION(_sk_move_dst_src_sse2) _sk_move_dst_src_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_sse2 .globl _sk_premul_sse2 FUNCTION(_sk_premul_sse2) _sk_premul_sse2: .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_dst_sse2 .globl _sk_premul_dst_sse2 FUNCTION(_sk_premul_dst_sse2) _sk_premul_dst_sse2: .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_unpremul_sse2 .globl _sk_unpremul_sse2 FUNCTION(_sk_unpremul_sse2) _sk_unpremul_sse2: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,40,13,212,109,0,0 // movaps 0x6dd4(%rip),%xmm9 # 88c0 <_sk_clut_4D_sse2+0x1918> .byte 68,15,94,203 // divps %xmm3,%xmm9 .byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8 .byte 69,15,84,193 // andps %xmm9,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_sse2 .globl _sk_from_srgb_sse2 FUNCTION(_sk_from_srgb_sse2) _sk_from_srgb_sse2: .byte 68,15,40,5,191,109,0,0 // movaps 0x6dbf(%rip),%xmm8 # 88d0 <_sk_clut_4D_sse2+0x1928> .byte 68,15,40,232 // movaps %xmm0,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,216 // movaps %xmm0,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 .byte 68,15,40,13,183,109,0,0 // movaps 0x6db7(%rip),%xmm9 # 88e0 <_sk_clut_4D_sse2+0x1938> .byte 68,15,40,240 // movaps %xmm0,%xmm14 .byte 69,15,89,241 // mulps %xmm9,%xmm14 .byte 68,15,40,21,183,109,0,0 // movaps 0x6db7(%rip),%xmm10 # 88f0 <_sk_clut_4D_sse2+0x1948> .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 69,15,89,243 // mulps %xmm11,%xmm14 .byte 68,15,40,29,183,109,0,0 // movaps 0x6db7(%rip),%xmm11 # 8900 <_sk_clut_4D_sse2+0x1958> .byte 69,15,88,243 // addps %xmm11,%xmm14 .byte 68,15,40,37,187,109,0,0 // movaps 0x6dbb(%rip),%xmm12 # 8910 <_sk_clut_4D_sse2+0x1968> .byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0 .byte 68,15,84,232 // andps %xmm0,%xmm13 .byte 65,15,85,198 // andnps %xmm14,%xmm0 .byte 65,15,86,197 // orps %xmm13,%xmm0 .byte 68,15,40,233 // movaps %xmm1,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,241 // movaps %xmm1,%xmm14 .byte 69,15,89,246 // mulps %xmm14,%xmm14 .byte 68,15,40,249 // movaps %xmm1,%xmm15 .byte 69,15,89,249 // mulps %xmm9,%xmm15 .byte 69,15,88,250 // addps %xmm10,%xmm15 .byte 69,15,89,254 // mulps %xmm14,%xmm15 .byte 69,15,88,251 // addps %xmm11,%xmm15 .byte 65,15,194,204,1 // cmpltps %xmm12,%xmm1 .byte 68,15,84,233 // andps %xmm1,%xmm13 .byte 65,15,85,207 // andnps %xmm15,%xmm1 .byte 65,15,86,205 // orps %xmm13,%xmm1 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 68,15,40,234 // movaps %xmm2,%xmm13 .byte 69,15,89,237 // mulps %xmm13,%xmm13 .byte 68,15,89,202 // mulps %xmm2,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 69,15,89,205 // mulps %xmm13,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 65,15,194,212,1 // cmpltps %xmm12,%xmm2 .byte 68,15,84,194 // andps %xmm2,%xmm8 .byte 65,15,85,209 // andnps %xmm9,%xmm2 .byte 65,15,86,208 // orps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_from_srgb_dst_sse2 .globl _sk_from_srgb_dst_sse2 FUNCTION(_sk_from_srgb_dst_sse2) _sk_from_srgb_dst_sse2: .byte 68,15,40,5,76,109,0,0 // movaps 0x6d4c(%rip),%xmm8 # 8920 <_sk_clut_4D_sse2+0x1978> .byte 68,15,40,236 // movaps %xmm4,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,220 // movaps %xmm4,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 .byte 68,15,40,13,68,109,0,0 // movaps 0x6d44(%rip),%xmm9 # 8930 <_sk_clut_4D_sse2+0x1988> .byte 68,15,40,244 // movaps %xmm4,%xmm14 .byte 69,15,89,241 // mulps %xmm9,%xmm14 .byte 68,15,40,21,68,109,0,0 // movaps 0x6d44(%rip),%xmm10 # 8940 <_sk_clut_4D_sse2+0x1998> .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 69,15,89,243 // mulps %xmm11,%xmm14 .byte 68,15,40,29,68,109,0,0 // movaps 0x6d44(%rip),%xmm11 # 8950 <_sk_clut_4D_sse2+0x19a8> .byte 69,15,88,243 // addps %xmm11,%xmm14 .byte 68,15,40,37,72,109,0,0 // movaps 0x6d48(%rip),%xmm12 # 8960 <_sk_clut_4D_sse2+0x19b8> .byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4 .byte 68,15,84,236 // andps %xmm4,%xmm13 .byte 65,15,85,230 // andnps %xmm14,%xmm4 .byte 65,15,86,229 // orps %xmm13,%xmm4 .byte 68,15,40,237 // movaps %xmm5,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,245 // movaps %xmm5,%xmm14 .byte 69,15,89,246 // mulps %xmm14,%xmm14 .byte 68,15,40,253 // movaps %xmm5,%xmm15 .byte 69,15,89,249 // mulps %xmm9,%xmm15 .byte 69,15,88,250 // addps %xmm10,%xmm15 .byte 69,15,89,254 // mulps %xmm14,%xmm15 .byte 69,15,88,251 // addps %xmm11,%xmm15 .byte 65,15,194,236,1 // cmpltps %xmm12,%xmm5 .byte 68,15,84,237 // andps %xmm5,%xmm13 .byte 65,15,85,239 // andnps %xmm15,%xmm5 .byte 65,15,86,237 // orps %xmm13,%xmm5 .byte 68,15,89,198 // mulps %xmm6,%xmm8 .byte 68,15,40,238 // movaps %xmm6,%xmm13 .byte 69,15,89,237 // mulps %xmm13,%xmm13 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 69,15,89,205 // mulps %xmm13,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 65,15,194,244,1 // cmpltps %xmm12,%xmm6 .byte 68,15,84,198 // andps %xmm6,%xmm8 .byte 65,15,85,241 // andnps %xmm9,%xmm6 .byte 65,15,86,240 // orps %xmm8,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_to_srgb_sse2 .globl _sk_to_srgb_sse2 FUNCTION(_sk_to_srgb_sse2) _sk_to_srgb_sse2: .byte 68,15,82,232 // rsqrtps %xmm0,%xmm13 .byte 68,15,40,5,213,108,0,0 // movaps 0x6cd5(%rip),%xmm8 # 8970 <_sk_clut_4D_sse2+0x19c8> .byte 68,15,40,240 // movaps %xmm0,%xmm14 .byte 69,15,89,240 // mulps %xmm8,%xmm14 .byte 68,15,40,13,213,108,0,0 // movaps 0x6cd5(%rip),%xmm9 # 8980 <_sk_clut_4D_sse2+0x19d8> .byte 69,15,40,253 // movaps %xmm13,%xmm15 .byte 69,15,89,249 // mulps %xmm9,%xmm15 .byte 68,15,40,21,213,108,0,0 // movaps 0x6cd5(%rip),%xmm10 # 8990 <_sk_clut_4D_sse2+0x19e8> .byte 69,15,88,250 // addps %xmm10,%xmm15 .byte 69,15,89,253 // mulps %xmm13,%xmm15 .byte 68,15,40,29,213,108,0,0 // movaps 0x6cd5(%rip),%xmm11 # 89a0 <_sk_clut_4D_sse2+0x19f8> .byte 69,15,88,251 // addps %xmm11,%xmm15 .byte 68,15,40,37,217,108,0,0 // movaps 0x6cd9(%rip),%xmm12 # 89b0 <_sk_clut_4D_sse2+0x1a08> .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 69,15,83,237 // rcpps %xmm13,%xmm13 .byte 69,15,89,239 // mulps %xmm15,%xmm13 .byte 68,15,40,61,213,108,0,0 // movaps 0x6cd5(%rip),%xmm15 # 89c0 <_sk_clut_4D_sse2+0x1a18> .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 68,15,84,240 // andps %xmm0,%xmm14 .byte 65,15,85,197 // andnps %xmm13,%xmm0 .byte 65,15,86,198 // orps %xmm14,%xmm0 .byte 68,15,82,233 // rsqrtps %xmm1,%xmm13 .byte 69,15,40,245 // movaps %xmm13,%xmm14 .byte 69,15,89,241 // mulps %xmm9,%xmm14 .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 69,15,83,237 // rcpps %xmm13,%xmm13 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,40,241 // movaps %xmm1,%xmm14 .byte 69,15,89,240 // mulps %xmm8,%xmm14 .byte 65,15,194,207,1 // cmpltps %xmm15,%xmm1 .byte 68,15,84,241 // andps %xmm1,%xmm14 .byte 65,15,85,205 // andnps %xmm13,%xmm1 .byte 65,15,86,206 // orps %xmm14,%xmm1 .byte 68,15,82,234 // rsqrtps %xmm2,%xmm13 .byte 69,15,89,205 // mulps %xmm13,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 69,15,89,205 // mulps %xmm13,%xmm9 .byte 69,15,88,203 // addps %xmm11,%xmm9 .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 69,15,83,213 // rcpps %xmm13,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2 .byte 68,15,84,194 // andps %xmm2,%xmm8 .byte 65,15,85,210 // andnps %xmm10,%xmm2 .byte 65,15,86,208 // orps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_rgb_to_hsl_sse2 .globl _sk_rgb_to_hsl_sse2 FUNCTION(_sk_rgb_to_hsl_sse2) _sk_rgb_to_hsl_sse2: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 69,15,95,209 // maxps %xmm9,%xmm10 .byte 68,15,95,210 // maxps %xmm2,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 69,15,93,217 // minps %xmm9,%xmm11 .byte 68,15,93,218 // minps %xmm2,%xmm11 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 68,15,40,45,46,108,0,0 // movaps 0x6c2e(%rip),%xmm13 # 89d0 <_sk_clut_4D_sse2+0x1a28> .byte 68,15,94,233 // divps %xmm1,%xmm13 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0 .byte 69,15,40,225 // movaps %xmm9,%xmm12 .byte 68,15,92,226 // subps %xmm2,%xmm12 .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14 .byte 68,15,84,53,20,108,0,0 // andps 0x6c14(%rip),%xmm14 # 89e0 <_sk_clut_4D_sse2+0x1a38> .byte 69,15,88,244 // addps %xmm12,%xmm14 .byte 69,15,40,250 // movaps %xmm10,%xmm15 .byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15 .byte 65,15,92,208 // subps %xmm8,%xmm2 .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 68,15,40,37,7,108,0,0 // movaps 0x6c07(%rip),%xmm12 # 89f0 <_sk_clut_4D_sse2+0x1a48> .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 69,15,92,193 // subps %xmm9,%xmm8 .byte 69,15,89,197 // mulps %xmm13,%xmm8 .byte 68,15,88,5,3,108,0,0 // addps 0x6c03(%rip),%xmm8 # 8a00 <_sk_clut_4D_sse2+0x1a58> .byte 65,15,84,215 // andps %xmm15,%xmm2 .byte 69,15,85,248 // andnps %xmm8,%xmm15 .byte 68,15,86,250 // orps %xmm2,%xmm15 .byte 68,15,84,240 // andps %xmm0,%xmm14 .byte 65,15,85,199 // andnps %xmm15,%xmm0 .byte 65,15,86,198 // orps %xmm14,%xmm0 .byte 15,89,5,244,107,0,0 // mulps 0x6bf4(%rip),%xmm0 # 8a10 <_sk_clut_4D_sse2+0x1a68> .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 69,15,92,226 // subps %xmm10,%xmm12 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 68,15,40,13,231,107,0,0 // movaps 0x6be7(%rip),%xmm9 # 8a20 <_sk_clut_4D_sse2+0x1a78> .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 69,15,84,225 // andps %xmm9,%xmm12 .byte 69,15,85,202 // andnps %xmm10,%xmm9 .byte 69,15,86,204 // orps %xmm12,%xmm9 .byte 65,15,94,201 // divps %xmm9,%xmm1 .byte 65,15,84,200 // andps %xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_hsl_to_rgb_sse2 .globl _sk_hsl_to_rgb_sse2 FUNCTION(_sk_hsl_to_rgb_sse2) _sk_hsl_to_rgb_sse2: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp) .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp) .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp) .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 68,15,40,218 // movaps %xmm2,%xmm11 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 68,15,40,13,166,107,0,0 // movaps 0x6ba6(%rip),%xmm9 # 8a30 <_sk_clut_4D_sse2+0x1a88> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,194,217,0 // cmpeqps %xmm1,%xmm3 .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,41,124,36,136 // movaps %xmm7,-0x78(%rsp) .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 65,15,84,194 // andps %xmm10,%xmm0 .byte 68,15,85,209 // andnps %xmm1,%xmm10 .byte 68,15,86,208 // orps %xmm0,%xmm10 .byte 68,15,41,92,36,152 // movaps %xmm11,-0x68(%rsp) .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 69,15,88,219 // addps %xmm11,%xmm11 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 15,40,5,111,107,0,0 // movaps 0x6b6f(%rip),%xmm0 # 8a40 <_sk_clut_4D_sse2+0x1a98> .byte 15,88,198 // addps %xmm6,%xmm0 .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,194,217,1 // cmpltps %xmm1,%xmm3 .byte 15,84,29,103,107,0,0 // andps 0x6b67(%rip),%xmm3 # 8a50 <_sk_clut_4D_sse2+0x1aa8> .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 68,15,40,45,105,107,0,0 // movaps 0x6b69(%rip),%xmm13 # 8a60 <_sk_clut_4D_sse2+0x1ab8> .byte 69,15,40,197 // movaps %xmm13,%xmm8 .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8 .byte 69,15,40,242 // movaps %xmm10,%xmm14 .byte 69,15,92,243 // subps %xmm11,%xmm14 .byte 65,15,40,217 // movaps %xmm9,%xmm3 .byte 15,194,216,2 // cmpleps %xmm0,%xmm3 .byte 15,40,21,121,107,0,0 // movaps 0x6b79(%rip),%xmm2 # 8a90 <_sk_clut_4D_sse2+0x1ae8> .byte 68,15,40,250 // movaps %xmm2,%xmm15 .byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15 .byte 15,40,13,73,107,0,0 // movaps 0x6b49(%rip),%xmm1 # 8a70 <_sk_clut_4D_sse2+0x1ac8> .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,45,79,107,0,0 // movaps 0x6b4f(%rip),%xmm5 # 8a80 <_sk_clut_4D_sse2+0x1ad8> .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 65,15,89,230 // mulps %xmm14,%xmm4 .byte 65,15,88,227 // addps %xmm11,%xmm4 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,84,224 // andps %xmm8,%xmm12 .byte 68,15,85,196 // andnps %xmm4,%xmm8 .byte 69,15,86,196 // orps %xmm12,%xmm8 .byte 68,15,84,195 // andps %xmm3,%xmm8 .byte 65,15,85,218 // andnps %xmm10,%xmm3 .byte 65,15,86,216 // orps %xmm8,%xmm3 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 65,15,84,223 // andps %xmm15,%xmm3 .byte 68,15,85,248 // andnps %xmm0,%xmm15 .byte 68,15,86,251 // orps %xmm3,%xmm15 .byte 68,15,40,199 // movaps %xmm7,%xmm8 .byte 69,15,85,199 // andnps %xmm15,%xmm8 .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,194,216,1 // cmpltps %xmm0,%xmm3 .byte 15,84,29,196,106,0,0 // andps 0x6ac4(%rip),%xmm3 # 8a50 <_sk_clut_4D_sse2+0x1aa8> .byte 15,92,195 // subps %xmm3,%xmm0 .byte 68,15,40,230 // movaps %xmm6,%xmm12 .byte 68,15,92,224 // subps %xmm0,%xmm12 .byte 69,15,40,253 // movaps %xmm13,%xmm15 .byte 69,15,194,252,2 // cmpleps %xmm12,%xmm15 .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 65,15,194,228,2 // cmpleps %xmm12,%xmm4 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 65,15,194,220,2 // cmpleps %xmm12,%xmm3 .byte 68,15,89,225 // mulps %xmm1,%xmm12 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 65,15,92,196 // subps %xmm12,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 65,15,88,195 // addps %xmm11,%xmm0 .byte 65,15,40,251 // movaps %xmm11,%xmm7 .byte 65,15,84,255 // andps %xmm15,%xmm7 .byte 68,15,85,248 // andnps %xmm0,%xmm15 .byte 68,15,86,255 // orps %xmm7,%xmm15 .byte 68,15,84,252 // andps %xmm4,%xmm15 .byte 65,15,85,226 // andnps %xmm10,%xmm4 .byte 65,15,86,231 // orps %xmm15,%xmm4 .byte 69,15,89,230 // mulps %xmm14,%xmm12 .byte 69,15,88,227 // addps %xmm11,%xmm12 .byte 15,84,227 // andps %xmm3,%xmm4 .byte 65,15,85,220 // andnps %xmm12,%xmm3 .byte 15,86,220 // orps %xmm4,%xmm3 .byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 15,85,227 // andnps %xmm3,%xmm4 .byte 15,88,53,156,106,0,0 // addps 0x6a9c(%rip),%xmm6 # 8aa0 <_sk_clut_4D_sse2+0x1af8> .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,194,216,1 // cmpltps %xmm0,%xmm3 .byte 15,84,29,55,106,0,0 // andps 0x6a37(%rip),%xmm3 # 8a50 <_sk_clut_4D_sse2+0x1aa8> .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 65,15,89,238 // mulps %xmm14,%xmm5 .byte 65,15,89,206 // mulps %xmm14,%xmm1 .byte 65,15,88,235 // addps %xmm11,%xmm5 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 68,15,194,238,2 // cmpleps %xmm6,%xmm13 .byte 69,15,84,221 // andps %xmm13,%xmm11 .byte 68,15,85,237 // andnps %xmm5,%xmm13 .byte 69,15,86,235 // orps %xmm11,%xmm13 .byte 68,15,194,206,2 // cmpleps %xmm6,%xmm9 .byte 69,15,84,233 // andps %xmm9,%xmm13 .byte 69,15,85,202 // andnps %xmm10,%xmm9 .byte 69,15,86,205 // orps %xmm13,%xmm9 .byte 15,194,214,2 // cmpleps %xmm6,%xmm2 .byte 68,15,84,202 // andps %xmm2,%xmm9 .byte 15,85,209 // andnps %xmm1,%xmm2 .byte 65,15,86,209 // orps %xmm9,%xmm2 .byte 15,40,68,36,152 // movaps -0x68(%rsp),%xmm0 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,84,193 // andps %xmm1,%xmm0 .byte 15,85,202 // andnps %xmm2,%xmm1 .byte 68,15,86,192 // orps %xmm0,%xmm8 .byte 15,86,224 // orps %xmm0,%xmm4 .byte 15,86,193 // orps %xmm1,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3 .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4 .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5 .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6 .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_1_float_sse2 .globl _sk_scale_1_float_sse2 FUNCTION(_sk_scale_1_float_sse2) _sk_scale_1_float_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_sse2 .globl _sk_scale_u8_sse2 FUNCTION(_sk_scale_u8_sse2) _sk_scale_u8_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,61 // jne 211a <_sk_scale_u8_sse2+0x55> .byte 102,71,15,110,4,25 // movd (%r9,%r11,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 .byte 102,68,15,219,5,186,105,0,0 // pand 0x69ba(%rip),%xmm8 # 8ab0 <_sk_clut_4D_sse2+0x1b08> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,5,190,105,0,0 // mulps 0x69be(%rip),%xmm8 # 8ac0 <_sk_clut_4D_sse2+0x1b18> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,61 // je 2164 <_sk_scale_u8_sse2+0x9f> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 2149 <_sk_scale_u8_sse2+0x84> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,181 // jne 20ed <_sk_scale_u8_sse2+0x28> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 .byte 235,137 // jmp 20ed <_sk_scale_u8_sse2+0x28> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 233,122,255,255,255 // jmpq 20ed <_sk_scale_u8_sse2+0x28> HIDDEN _sk_lerp_1_float_sse2 .globl _sk_lerp_1_float_sse2 FUNCTION(_sk_lerp_1_float_sse2) _sk_lerp_1_float_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_sse2 .globl _sk_lerp_u8_sse2 FUNCTION(_sk_lerp_u8_sse2) _sk_lerp_u8_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,81 // jne 2214 <_sk_lerp_u8_sse2+0x69> .byte 102,71,15,110,4,25 // movd (%r9,%r11,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 .byte 102,68,15,219,5,244,104,0,0 // pand 0x68f4(%rip),%xmm8 # 8ad0 <_sk_clut_4D_sse2+0x1b28> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,5,248,104,0,0 // mulps 0x68f8(%rip),%xmm8 # 8ae0 <_sk_clut_4D_sse2+0x1b38> .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,64 // je 2261 <_sk_lerp_u8_sse2+0xb6> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 2243 <_sk_lerp_u8_sse2+0x98> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,161 // jne 21d3 <_sk_lerp_u8_sse2+0x28> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 .byte 233,114,255,255,255 // jmpq 21d3 <_sk_lerp_u8_sse2+0x28> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 233,99,255,255,255 // jmpq 21d3 <_sk_lerp_u8_sse2+0x28> HIDDEN _sk_lerp_565_sse2 .globl _sk_lerp_565_sse2 FUNCTION(_sk_lerp_565_sse2) _sk_lerp_565_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 15,133,156,0,0,0 // jne 232b <_sk_lerp_565_sse2+0xbb> .byte 243,71,15,126,12,89 // movq (%r9,%r11,2),%xmm9 .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9 .byte 102,68,15,111,5,77,104,0,0 // movdqa 0x684d(%rip),%xmm8 # 8af0 <_sk_clut_4D_sse2+0x1b48> .byte 102,69,15,219,193 // pand %xmm9,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,5,76,104,0,0 // mulps 0x684c(%rip),%xmm8 # 8b00 <_sk_clut_4D_sse2+0x1b58> .byte 102,68,15,111,21,83,104,0,0 // movdqa 0x6853(%rip),%xmm10 # 8b10 <_sk_clut_4D_sse2+0x1b68> .byte 102,69,15,219,209 // pand %xmm9,%xmm10 .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 68,15,89,21,82,104,0,0 // mulps 0x6852(%rip),%xmm10 # 8b20 <_sk_clut_4D_sse2+0x1b78> .byte 102,68,15,219,13,89,104,0,0 // pand 0x6859(%rip),%xmm9 # 8b30 <_sk_clut_4D_sse2+0x1b88> .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9 .byte 68,15,89,13,93,104,0,0 // mulps 0x685d(%rip),%xmm9 # 8b40 <_sk_clut_4D_sse2+0x1b98> .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 65,15,89,202 // mulps %xmm10,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 68,15,88,199 // addps %xmm7,%xmm8 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 68,15,88,215 // addps %xmm7,%xmm10 .byte 65,15,89,217 // mulps %xmm9,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 68,15,95,211 // maxps %xmm3,%xmm10 .byte 69,15,95,194 // maxps %xmm10,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,59 // je 2373 <_sk_lerp_565_sse2+0x103> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,27 // je 235e <_sk_lerp_565_sse2+0xee> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 15,133,77,255,255,255 // jne 229a <_sk_lerp_565_sse2+0x2a> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,200,69 // pshufd $0x45,%xmm8,%xmm9 .byte 102,71,15,110,4,89 // movd (%r9,%r11,2),%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 .byte 242,69,15,16,200 // movsd %xmm8,%xmm9 .byte 233,39,255,255,255 // jmpq 229a <_sk_lerp_565_sse2+0x2a> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 233,24,255,255,255 // jmpq 229a <_sk_lerp_565_sse2+0x2a> HIDDEN _sk_load_tables_sse2 .globl _sk_load_tables_sse2 FUNCTION(_sk_load_tables_sse2) _sk_load_tables_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 77,133,192 // test %r8,%r8 .byte 15,133,36,1,0,0 // jne 24b4 <_sk_load_tables_sse2+0x132> .byte 243,69,15,111,12,145 // movdqu (%r9,%rdx,4),%xmm9 .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,68,15,111,5,172,103,0,0 // movdqa 0x67ac(%rip),%xmm8 # 8b50 <_sk_clut_4D_sse2+0x1ba8> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,201 // movq %xmm1,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 69,15,182,218 // movzbl %r10b,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 69,15,182,241 // movzbl %r9b,%r14d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,66,15,16,12,19 // movss (%rbx,%r10,1),%xmm1 .byte 243,66,15,16,4,11 // movss (%rbx,%r9,1),%xmm0 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 243,66,15,16,20,179 // movss (%rbx,%r14,4),%xmm2 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,65,15,219,200 // pand %xmm8,%xmm1 .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,209 // movq %xmm2,%r9 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 68,15,182,211 // movzbl %bl,%r10d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 69,15,182,217 // movzbl %r9b,%r11d .byte 73,193,233,30 // shr $0x1e,%r9 .byte 243,65,15,16,20,31 // movss (%r15,%rbx,1),%xmm2 .byte 243,67,15,16,12,15 // movss (%r15,%r9,1),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,67,15,16,12,151 // movss (%r15,%r10,4),%xmm1 .byte 243,67,15,16,28,159 // movss (%r15,%r11,4),%xmm3 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 76,139,72,24 // mov 0x18(%rax),%r9 .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2 .byte 102,15,114,210,16 // psrld $0x10,%xmm2 .byte 102,65,15,219,208 // pand %xmm8,%xmm2 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,72,15,126,219 // movq %xmm3,%rbx .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 68,15,182,208 // movzbl %al,%r10d .byte 72,193,232,30 // shr $0x1e,%rax .byte 68,15,182,219 // movzbl %bl,%r11d .byte 72,193,235,30 // shr $0x1e,%rbx .byte 243,69,15,16,4,1 // movss (%r9,%rax,1),%xmm8 .byte 243,65,15,16,20,25 // movss (%r9,%rbx,1),%xmm2 .byte 68,15,20,194 // unpcklps %xmm2,%xmm8 .byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2 .byte 243,67,15,16,28,153 // movss (%r9,%r11,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 65,15,20,208 // unpcklps %xmm8,%xmm2 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3 .byte 15,89,29,181,102,0,0 // mulps 0x66b5(%rip),%xmm3 # 8b60 <_sk_clut_4D_sse2+0x1bb8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,45 // je 24ee <_sk_load_tables_sse2+0x16c> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,23 // je 24e3 <_sk_load_tables_sse2+0x161> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 15,133,192,254,255,255 // jne 2396 <_sk_load_tables_sse2+0x14> .byte 102,65,15,110,68,145,8 // movd 0x8(%r9,%rdx,4),%xmm0 .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9 .byte 102,69,15,18,12,145 // movlpd (%r9,%rdx,4),%xmm9 .byte 233,168,254,255,255 // jmpq 2396 <_sk_load_tables_sse2+0x14> .byte 102,69,15,110,12,145 // movd (%r9,%rdx,4),%xmm9 .byte 233,157,254,255,255 // jmpq 2396 <_sk_load_tables_sse2+0x14> HIDDEN _sk_load_tables_u16_be_sse2 .globl _sk_load_tables_u16_be_sse2 FUNCTION(_sk_load_tables_u16_be_sse2) _sk_load_tables_u16_be_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,101,1,0,0 // jne 2674 <_sk_load_tables_u16_be_sse2+0x17b> .byte 102,67,15,16,4,81 // movupd (%r9,%r10,2),%xmm0 .byte 102,67,15,16,76,81,16 // movupd 0x10(%r9,%r10,2),%xmm1 .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,68,15,40,200 // movapd %xmm0,%xmm9 .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9 .byte 102,68,15,111,21,42,102,0,0 // movdqa 0x662a(%rip),%xmm10 # 8b70 <_sk_clut_4D_sse2+0x1bc8> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,194 // pand %xmm10,%xmm0 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0 .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 69,15,182,209 // movzbl %r9b,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 69,15,182,243 // movzbl %r11b,%r14d .byte 73,193,235,30 // shr $0x1e,%r11 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,66,15,16,28,27 // movss (%rbx,%r11,1),%xmm3 .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 243,66,15,16,4,179 // movss (%rbx,%r14,4),%xmm0 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 102,15,115,217,8 // psrldq $0x8,%xmm1 .byte 102,65,15,219,202 // pand %xmm10,%xmm1 .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1 .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 68,15,182,203 // movzbl %bl,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 69,15,182,218 // movzbl %r10b,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 243,67,15,16,20,23 // movss (%r15,%r10,1),%xmm2 .byte 243,65,15,16,12,159 // movss (%r15,%rbx,4),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,67,15,16,12,159 // movss (%r15,%r11,4),%xmm1 .byte 243,67,15,16,28,143 // movss (%r15,%r9,4),%xmm3 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 102,69,15,219,209 // pand %xmm9,%xmm10 .byte 102,69,15,97,208 // punpcklwd %xmm8,%xmm10 .byte 102,65,15,112,210,78 // pshufd $0x4e,%xmm10,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 68,15,182,203 // movzbl %bl,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,76,15,126,208 // movq %xmm10,%rax .byte 68,15,182,216 // movzbl %al,%r11d .byte 72,193,232,30 // shr $0x1e,%rax .byte 243,69,15,16,20,2 // movss (%r10,%rax,1),%xmm10 .byte 243,65,15,16,20,154 // movss (%r10,%rbx,4),%xmm2 .byte 68,15,20,210 // unpcklps %xmm2,%xmm10 .byte 243,67,15,16,20,154 // movss (%r10,%r11,4),%xmm2 .byte 243,67,15,16,28,138 // movss (%r10,%r9,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 65,15,20,210 // unpcklps %xmm10,%xmm2 .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3 .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,65,15,235,217 // por %xmm9,%xmm3 .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,29,21,101,0,0 // mulps 0x6515(%rip),%xmm3 # 8b80 <_sk_clut_4D_sse2+0x1bd8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax .byte 242,67,15,16,4,81 // movsd (%r9,%r10,2),%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,17 // jne 2691 <_sk_load_tables_u16_be_sse2+0x198> .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 233,139,254,255,255 // jmpq 251c <_sk_load_tables_u16_be_sse2+0x23> .byte 102,67,15,22,68,81,8 // movhpd 0x8(%r9,%r10,2),%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,118,254,255,255 // jb 251c <_sk_load_tables_u16_be_sse2+0x23> .byte 242,67,15,16,76,81,16 // movsd 0x10(%r9,%r10,2),%xmm1 .byte 233,106,254,255,255 // jmpq 251c <_sk_load_tables_u16_be_sse2+0x23> HIDDEN _sk_load_tables_rgb_u16_be_sse2 .globl _sk_load_tables_rgb_u16_be_sse2 FUNCTION(_sk_load_tables_rgb_u16_be_sse2) _sk_load_tables_rgb_u16_be_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 76,141,20,82 // lea (%rdx,%rdx,2),%r10 .byte 77,133,192 // test %r8,%r8 .byte 15,133,84,1,0,0 // jne 2818 <_sk_load_tables_rgb_u16_be_sse2+0x166> .byte 243,71,15,111,28,81 // movdqu (%r9,%r10,2),%xmm11 .byte 243,67,15,111,76,81,8 // movdqu 0x8(%r9,%r10,2),%xmm1 .byte 102,15,115,217,4 // psrldq $0x4,%xmm1 .byte 102,69,15,111,211 // movdqa %xmm11,%xmm10 .byte 102,65,15,115,218,6 // psrldq $0x6,%xmm10 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,115,216,6 // psrldq $0x6,%xmm0 .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,68,15,97,217 // punpcklwd %xmm1,%xmm11 .byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10 .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0 .byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0 .byte 102,68,15,111,5,132,100,0,0 // movdqa 0x6484(%rip),%xmm8 # 8b90 <_sk_clut_4D_sse2+0x1be8> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0 .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 69,15,182,209 // movzbl %r9b,%r10d .byte 73,193,233,32 // shr $0x20,%r9 .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 69,15,182,243 // movzbl %r11b,%r14d .byte 73,193,235,30 // shr $0x1e,%r11 .byte 72,139,88,8 // mov 0x8(%rax),%rbx .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,66,15,16,28,27 // movss (%rbx,%r11,1),%xmm3 .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 243,66,15,16,4,179 // movss (%rbx,%r14,4),%xmm0 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 102,65,15,219,200 // pand %xmm8,%xmm1 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 68,15,182,203 // movzbl %bl,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 69,15,182,218 // movzbl %r10b,%r11d .byte 73,193,234,30 // shr $0x1e,%r10 .byte 243,67,15,16,20,23 // movss (%r15,%r10,1),%xmm2 .byte 243,65,15,16,12,159 // movss (%r15,%rbx,4),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,67,15,16,12,159 // movss (%r15,%r11,4),%xmm1 .byte 243,67,15,16,28,143 // movss (%r15,%r9,4),%xmm3 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 76,139,80,24 // mov 0x18(%rax),%r10 .byte 102,69,15,105,218 // punpckhwd %xmm10,%xmm11 .byte 102,69,15,219,216 // pand %xmm8,%xmm11 .byte 102,69,15,97,217 // punpcklwd %xmm9,%xmm11 .byte 102,65,15,112,211,78 // pshufd $0x4e,%xmm11,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 68,15,182,203 // movzbl %bl,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,76,15,126,216 // movq %xmm11,%rax .byte 68,15,182,216 // movzbl %al,%r11d .byte 72,193,232,30 // shr $0x1e,%rax .byte 243,69,15,16,4,2 // movss (%r10,%rax,1),%xmm8 .byte 243,65,15,16,20,154 // movss (%r10,%rbx,4),%xmm2 .byte 68,15,20,194 // unpcklps %xmm2,%xmm8 .byte 243,67,15,16,20,154 // movss (%r10,%r11,4),%xmm2 .byte 243,67,15,16,28,138 // movss (%r10,%r9,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 65,15,20,208 // unpcklps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,143,99,0,0 // movaps 0x638f(%rip),%xmm3 # 8ba0 <_sk_clut_4D_sse2+0x1bf8> .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax .byte 102,71,15,110,28,81 // movd (%r9,%r10,2),%xmm11 .byte 102,71,15,196,92,81,4,2 // pinsrw $0x2,0x4(%r9,%r10,2),%xmm11 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,14 // jne 283e <_sk_load_tables_rgb_u16_be_sse2+0x18c> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 233,172,254,255,255 // jmpq 26ea <_sk_load_tables_rgb_u16_be_sse2+0x38> .byte 102,71,15,110,84,81,6 // movd 0x6(%r9,%r10,2),%xmm10 .byte 102,71,15,196,84,81,10,2 // pinsrw $0x2,0xa(%r9,%r10,2),%xmm10 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,24 // jb 286f <_sk_load_tables_rgb_u16_be_sse2+0x1bd> .byte 102,67,15,110,76,81,12 // movd 0xc(%r9,%r10,2),%xmm1 .byte 102,67,15,196,76,81,16,2 // pinsrw $0x2,0x10(%r9,%r10,2),%xmm1 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 233,123,254,255,255 // jmpq 26ea <_sk_load_tables_rgb_u16_be_sse2+0x38> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,114,254,255,255 // jmpq 26ea <_sk_load_tables_rgb_u16_be_sse2+0x38> HIDDEN _sk_byte_tables_sse2 .globl _sk_byte_tables_sse2 FUNCTION(_sk_byte_tables_sse2) _sk_byte_tables_sse2: .byte 85 // push %rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,40,99,0,0 // movaps 0x6328(%rip),%xmm8 # 8bb0 <_sk_clut_4D_sse2+0x1c08> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 69,137,206 // mov %r9d,%r14d .byte 77,137,207 // mov %r9,%r15 .byte 73,193,239,32 // shr $0x20,%r15 .byte 72,139,24 // mov (%rax),%rbx .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 70,15,182,52,51 // movzbl (%rbx,%r14,1),%r14d .byte 66,15,182,44,59 // movzbl (%rbx,%r15,1),%ebp .byte 193,229,8 // shl $0x8,%ebp .byte 68,9,245 // or %r14d,%ebp .byte 70,15,182,20,19 // movzbl (%rbx,%r10,1),%r10d .byte 66,15,182,28,27 // movzbl (%rbx,%r11,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,211 // or %r10d,%ebx .byte 102,15,196,195,0 // pinsrw $0x0,%ebx,%xmm0 .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0 .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,21,194,98,0,0 // movaps 0x62c2(%rip),%xmm10 # 8bc0 <_sk_clut_4D_sse2+0x1c18> .byte 65,15,89,194 // mulps %xmm10,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,72,15,126,205 // movq %xmm1,%rbp .byte 65,137,234 // mov %ebp,%r10d .byte 72,193,237,32 // shr $0x20,%rbp .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 65,15,182,28,25 // movzbl (%r9,%rbx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,219 // or %r11d,%ebx .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 65,15,182,44,41 // movzbl (%r9,%rbp,1),%ebp .byte 193,229,8 // shl $0x8,%ebp .byte 68,9,213 // or %r10d,%ebp .byte 102,15,196,205,0 // pinsrw $0x0,%ebp,%xmm1 .byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1 .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,202 // mulps %xmm10,%xmm1 .byte 76,139,80,16 // mov 0x10(%rax),%r10 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 65,137,217 // mov %ebx,%r9d .byte 72,193,235,32 // shr $0x20,%rbx .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2 .byte 102,72,15,126,213 // movq %xmm2,%rbp .byte 65,137,235 // mov %ebp,%r11d .byte 72,193,237,32 // shr $0x20,%rbp .byte 71,15,182,28,26 // movzbl (%r10,%r11,1),%r11d .byte 65,15,182,44,42 // movzbl (%r10,%rbp,1),%ebp .byte 193,229,8 // shl $0x8,%ebp .byte 68,9,221 // or %r11d,%ebp .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 65,15,182,28,26 // movzbl (%r10,%rbx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,203 // or %r9d,%ebx .byte 102,15,196,211,0 // pinsrw $0x0,%ebx,%xmm2 .byte 102,15,196,213,1 // pinsrw $0x1,%ebp,%xmm2 .byte 102,65,15,96,209 // punpcklbw %xmm9,%xmm2 .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 72,139,64,24 // mov 0x18(%rax),%rax .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 .byte 102,72,15,126,221 // movq %xmm3,%rbp .byte 65,137,233 // mov %ebp,%r9d .byte 72,193,237,32 // shr $0x20,%rbp .byte 102,15,112,219,78 // pshufd $0x4e,%xmm3,%xmm3 .byte 102,72,15,126,219 // movq %xmm3,%rbx .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 70,15,182,20,16 // movzbl (%rax,%r10,1),%r10d .byte 15,182,28,24 // movzbl (%rax,%rbx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,211 // or %r10d,%ebx .byte 70,15,182,12,8 // movzbl (%rax,%r9,1),%r9d .byte 15,182,4,40 // movzbl (%rax,%rbp,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 68,9,200 // or %r9d,%eax .byte 102,15,196,216,0 // pinsrw $0x0,%eax,%xmm3 .byte 102,15,196,219,1 // pinsrw $0x1,%ebx,%xmm3 .byte 102,65,15,96,217 // punpcklbw %xmm9,%xmm3 .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,218 // mulps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_byte_tables_rgb_sse2 .globl _sk_byte_tables_rgb_sse2 FUNCTION(_sk_byte_tables_rgb_sse2) _sk_byte_tables_rgb_sse2: .byte 85 // push %rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,24 // mov 0x18(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 102,69,15,110,193 // movd %r9d,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 69,137,206 // mov %r9d,%r14d .byte 77,137,207 // mov %r9,%r15 .byte 73,193,239,32 // shr $0x20,%r15 .byte 72,139,24 // mov (%rax),%rbx .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 70,15,182,52,51 // movzbl (%rbx,%r14,1),%r14d .byte 66,15,182,44,59 // movzbl (%rbx,%r15,1),%ebp .byte 193,229,8 // shl $0x8,%ebp .byte 68,9,245 // or %r14d,%ebp .byte 70,15,182,20,19 // movzbl (%rbx,%r10,1),%r10d .byte 66,15,182,28,27 // movzbl (%rbx,%r11,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,211 // or %r10d,%ebx .byte 102,15,196,195,0 // pinsrw $0x0,%ebx,%xmm0 .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0 .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,21,10,97,0,0 // movaps 0x610a(%rip),%xmm10 # 8bd0 <_sk_clut_4D_sse2+0x1c28> .byte 65,15,89,194 // mulps %xmm10,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,72,15,126,205 // movq %xmm1,%rbp .byte 65,137,234 // mov %ebp,%r10d .byte 72,193,237,32 // shr $0x20,%rbp .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 65,137,219 // mov %ebx,%r11d .byte 72,193,235,32 // shr $0x20,%rbx .byte 71,15,182,28,25 // movzbl (%r9,%r11,1),%r11d .byte 65,15,182,28,25 // movzbl (%r9,%rbx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,219 // or %r11d,%ebx .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d .byte 65,15,182,44,41 // movzbl (%r9,%rbp,1),%ebp .byte 193,229,8 // shl $0x8,%ebp .byte 68,9,213 // or %r10d,%ebp .byte 102,15,196,205,0 // pinsrw $0x0,%ebp,%xmm1 .byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1 .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,202 // mulps %xmm10,%xmm1 .byte 72,139,64,16 // mov 0x10(%rax),%rax .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 102,72,15,126,213 // movq %xmm2,%rbp .byte 65,137,233 // mov %ebp,%r9d .byte 72,193,237,32 // shr $0x20,%rbp .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 70,15,182,20,16 // movzbl (%rax,%r10,1),%r10d .byte 15,182,28,24 // movzbl (%rax,%rbx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 68,9,211 // or %r10d,%ebx .byte 70,15,182,12,8 // movzbl (%rax,%r9,1),%r9d .byte 15,182,4,40 // movzbl (%rax,%rbp,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 68,9,200 // or %r9d,%eax .byte 102,15,196,208,0 // pinsrw $0x0,%eax,%xmm2 .byte 102,15,196,211,1 // pinsrw $0x1,%ebx,%xmm2 .byte 102,65,15,96,209 // punpcklbw %xmm9,%xmm2 .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_table_r_sse2 .globl _sk_table_r_sse2 FUNCTION(_sk_table_r_sse2) _sk_table_r_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,77,15,126,195 // movq %xmm8,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,71,15,16,4,153 // movss (%r9,%r11,4),%xmm8 .byte 243,65,15,16,4,129 // movss (%r9,%rax,4),%xmm0 .byte 68,15,20,192 // unpcklps %xmm0,%xmm8 .byte 243,65,15,16,4,153 // movss (%r9,%rbx,4),%xmm0 .byte 243,71,15,16,12,145 // movss (%r9,%r10,4),%xmm9 .byte 65,15,20,193 // unpcklps %xmm9,%xmm0 .byte 65,15,20,192 // unpcklps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_table_g_sse2 .globl _sk_table_g_sse2 FUNCTION(_sk_table_g_sse2) _sk_table_g_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,77,15,126,195 // movq %xmm8,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,71,15,16,4,153 // movss (%r9,%r11,4),%xmm8 .byte 243,65,15,16,12,129 // movss (%r9,%rax,4),%xmm1 .byte 68,15,20,193 // unpcklps %xmm1,%xmm8 .byte 243,65,15,16,12,153 // movss (%r9,%rbx,4),%xmm1 .byte 243,71,15,16,12,145 // movss (%r9,%r10,4),%xmm9 .byte 65,15,20,201 // unpcklps %xmm9,%xmm1 .byte 65,15,20,200 // unpcklps %xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_table_b_sse2 .globl _sk_table_b_sse2 FUNCTION(_sk_table_b_sse2) _sk_table_b_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2 .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,77,15,126,195 // movq %xmm8,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,71,15,16,4,153 // movss (%r9,%r11,4),%xmm8 .byte 243,65,15,16,20,129 // movss (%r9,%rax,4),%xmm2 .byte 68,15,20,194 // unpcklps %xmm2,%xmm8 .byte 243,65,15,16,20,153 // movss (%r9,%rbx,4),%xmm2 .byte 243,71,15,16,12,145 // movss (%r9,%r10,4),%xmm9 .byte 65,15,20,209 // unpcklps %xmm9,%xmm2 .byte 65,15,20,208 // unpcklps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_table_a_sse2 .globl _sk_table_a_sse2 FUNCTION(_sk_table_a_sse2) _sk_table_a_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 139,64,8 // mov 0x8(%rax),%eax .byte 255,200 // dec %eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3 .byte 102,72,15,126,216 // movq %xmm3,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,77,15,126,195 // movq %xmm8,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,71,15,16,4,153 // movss (%r9,%r11,4),%xmm8 .byte 243,65,15,16,28,129 // movss (%r9,%rax,4),%xmm3 .byte 68,15,20,195 // unpcklps %xmm3,%xmm8 .byte 243,65,15,16,28,153 // movss (%r9,%rbx,4),%xmm3 .byte 243,71,15,16,12,145 // movss (%r9,%r10,4),%xmm9 .byte 65,15,20,217 // unpcklps %xmm9,%xmm3 .byte 65,15,20,216 // unpcklps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_r_sse2 .globl _sk_parametric_r_sse2 FUNCTION(_sk_parametric_r_sse2) _sk_parametric_r_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 65,15,194,193,2 // cmpleps %xmm9,%xmm0 .byte 243,68,15,16,72,24 // movss 0x18(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 243,68,15,16,24 // movss (%rax),%xmm11 .byte 243,68,15,16,72,8 // movss 0x8(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,209 // addps %xmm9,%xmm10 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9 .byte 68,15,89,13,62,94,0,0 // mulps 0x5e3e(%rip),%xmm9 # 8be0 <_sk_clut_4D_sse2+0x1c38> .byte 68,15,84,21,70,94,0,0 // andps 0x5e46(%rip),%xmm10 # 8bf0 <_sk_clut_4D_sse2+0x1c48> .byte 68,15,86,21,78,94,0,0 // orps 0x5e4e(%rip),%xmm10 # 8c00 <_sk_clut_4D_sse2+0x1c58> .byte 68,15,88,13,86,94,0,0 // addps 0x5e56(%rip),%xmm9 # 8c10 <_sk_clut_4D_sse2+0x1c68> .byte 68,15,40,37,94,94,0,0 // movaps 0x5e5e(%rip),%xmm12 # 8c20 <_sk_clut_4D_sse2+0x1c78> .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,88,21,94,94,0,0 // addps 0x5e5e(%rip),%xmm10 # 8c30 <_sk_clut_4D_sse2+0x1c88> .byte 68,15,40,37,102,94,0,0 // movaps 0x5e66(%rip),%xmm12 # 8c40 <_sk_clut_4D_sse2+0x1c98> .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13 .byte 68,15,40,21,80,94,0,0 // movaps 0x5e50(%rip),%xmm10 # 8c50 <_sk_clut_4D_sse2+0x1ca8> .byte 69,15,84,234 // andps %xmm10,%xmm13 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,88,13,68,94,0,0 // addps 0x5e44(%rip),%xmm9 # 8c60 <_sk_clut_4D_sse2+0x1cb8> .byte 68,15,40,37,76,94,0,0 // movaps 0x5e4c(%rip),%xmm12 # 8c70 <_sk_clut_4D_sse2+0x1cc8> .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,40,37,76,94,0,0 // movaps 0x5e4c(%rip),%xmm12 # 8c80 <_sk_clut_4D_sse2+0x1cd8> .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,40,45,80,94,0,0 // movaps 0x5e50(%rip),%xmm13 # 8c90 <_sk_clut_4D_sse2+0x1ce8> .byte 69,15,94,236 // divps %xmm12,%xmm13 .byte 69,15,88,233 // addps %xmm9,%xmm13 .byte 68,15,89,45,80,94,0,0 // mulps 0x5e50(%rip),%xmm13 # 8ca0 <_sk_clut_4D_sse2+0x1cf8> .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9 .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,88,225 // addps %xmm9,%xmm12 .byte 68,15,84,192 // andps %xmm0,%xmm8 .byte 65,15,85,196 // andnps %xmm12,%xmm0 .byte 65,15,86,192 // orps %xmm8,%xmm0 .byte 65,15,95,195 // maxps %xmm11,%xmm0 .byte 65,15,93,194 // minps %xmm10,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_g_sse2 .globl _sk_parametric_g_sse2 FUNCTION(_sk_parametric_g_sse2) _sk_parametric_g_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 65,15,194,201,2 // cmpleps %xmm9,%xmm1 .byte 243,68,15,16,72,24 // movss 0x18(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 243,68,15,16,24 // movss (%rax),%xmm11 .byte 243,68,15,16,72,8 // movss 0x8(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,209 // addps %xmm9,%xmm10 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9 .byte 68,15,89,13,208,93,0,0 // mulps 0x5dd0(%rip),%xmm9 # 8cb0 <_sk_clut_4D_sse2+0x1d08> .byte 68,15,84,21,216,93,0,0 // andps 0x5dd8(%rip),%xmm10 # 8cc0 <_sk_clut_4D_sse2+0x1d18> .byte 68,15,86,21,224,93,0,0 // orps 0x5de0(%rip),%xmm10 # 8cd0 <_sk_clut_4D_sse2+0x1d28> .byte 68,15,88,13,232,93,0,0 // addps 0x5de8(%rip),%xmm9 # 8ce0 <_sk_clut_4D_sse2+0x1d38> .byte 68,15,40,37,240,93,0,0 // movaps 0x5df0(%rip),%xmm12 # 8cf0 <_sk_clut_4D_sse2+0x1d48> .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,88,21,240,93,0,0 // addps 0x5df0(%rip),%xmm10 # 8d00 <_sk_clut_4D_sse2+0x1d58> .byte 68,15,40,37,248,93,0,0 // movaps 0x5df8(%rip),%xmm12 # 8d10 <_sk_clut_4D_sse2+0x1d68> .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13 .byte 68,15,40,21,226,93,0,0 // movaps 0x5de2(%rip),%xmm10 # 8d20 <_sk_clut_4D_sse2+0x1d78> .byte 69,15,84,234 // andps %xmm10,%xmm13 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,88,13,214,93,0,0 // addps 0x5dd6(%rip),%xmm9 # 8d30 <_sk_clut_4D_sse2+0x1d88> .byte 68,15,40,37,222,93,0,0 // movaps 0x5dde(%rip),%xmm12 # 8d40 <_sk_clut_4D_sse2+0x1d98> .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,40,37,222,93,0,0 // movaps 0x5dde(%rip),%xmm12 # 8d50 <_sk_clut_4D_sse2+0x1da8> .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,40,45,226,93,0,0 // movaps 0x5de2(%rip),%xmm13 # 8d60 <_sk_clut_4D_sse2+0x1db8> .byte 69,15,94,236 // divps %xmm12,%xmm13 .byte 69,15,88,233 // addps %xmm9,%xmm13 .byte 68,15,89,45,226,93,0,0 // mulps 0x5de2(%rip),%xmm13 # 8d70 <_sk_clut_4D_sse2+0x1dc8> .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9 .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,88,225 // addps %xmm9,%xmm12 .byte 68,15,84,193 // andps %xmm1,%xmm8 .byte 65,15,85,204 // andnps %xmm12,%xmm1 .byte 65,15,86,200 // orps %xmm8,%xmm1 .byte 65,15,95,203 // maxps %xmm11,%xmm1 .byte 65,15,93,202 // minps %xmm10,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_b_sse2 .globl _sk_parametric_b_sse2 FUNCTION(_sk_parametric_b_sse2) _sk_parametric_b_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 65,15,194,209,2 // cmpleps %xmm9,%xmm2 .byte 243,68,15,16,72,24 // movss 0x18(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 243,68,15,16,24 // movss (%rax),%xmm11 .byte 243,68,15,16,72,8 // movss 0x8(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,209 // addps %xmm9,%xmm10 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9 .byte 68,15,89,13,98,93,0,0 // mulps 0x5d62(%rip),%xmm9 # 8d80 <_sk_clut_4D_sse2+0x1dd8> .byte 68,15,84,21,106,93,0,0 // andps 0x5d6a(%rip),%xmm10 # 8d90 <_sk_clut_4D_sse2+0x1de8> .byte 68,15,86,21,114,93,0,0 // orps 0x5d72(%rip),%xmm10 # 8da0 <_sk_clut_4D_sse2+0x1df8> .byte 68,15,88,13,122,93,0,0 // addps 0x5d7a(%rip),%xmm9 # 8db0 <_sk_clut_4D_sse2+0x1e08> .byte 68,15,40,37,130,93,0,0 // movaps 0x5d82(%rip),%xmm12 # 8dc0 <_sk_clut_4D_sse2+0x1e18> .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,88,21,130,93,0,0 // addps 0x5d82(%rip),%xmm10 # 8dd0 <_sk_clut_4D_sse2+0x1e28> .byte 68,15,40,37,138,93,0,0 // movaps 0x5d8a(%rip),%xmm12 # 8de0 <_sk_clut_4D_sse2+0x1e38> .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13 .byte 68,15,40,21,116,93,0,0 // movaps 0x5d74(%rip),%xmm10 # 8df0 <_sk_clut_4D_sse2+0x1e48> .byte 69,15,84,234 // andps %xmm10,%xmm13 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,88,13,104,93,0,0 // addps 0x5d68(%rip),%xmm9 # 8e00 <_sk_clut_4D_sse2+0x1e58> .byte 68,15,40,37,112,93,0,0 // movaps 0x5d70(%rip),%xmm12 # 8e10 <_sk_clut_4D_sse2+0x1e68> .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,40,37,112,93,0,0 // movaps 0x5d70(%rip),%xmm12 # 8e20 <_sk_clut_4D_sse2+0x1e78> .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,40,45,116,93,0,0 // movaps 0x5d74(%rip),%xmm13 # 8e30 <_sk_clut_4D_sse2+0x1e88> .byte 69,15,94,236 // divps %xmm12,%xmm13 .byte 69,15,88,233 // addps %xmm9,%xmm13 .byte 68,15,89,45,116,93,0,0 // mulps 0x5d74(%rip),%xmm13 # 8e40 <_sk_clut_4D_sse2+0x1e98> .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9 .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,88,225 // addps %xmm9,%xmm12 .byte 68,15,84,194 // andps %xmm2,%xmm8 .byte 65,15,85,212 // andnps %xmm12,%xmm2 .byte 65,15,86,208 // orps %xmm8,%xmm2 .byte 65,15,95,211 // maxps %xmm11,%xmm2 .byte 65,15,93,210 // minps %xmm10,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_a_sse2 .globl _sk_parametric_a_sse2 FUNCTION(_sk_parametric_a_sse2) _sk_parametric_a_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 65,15,194,217,2 // cmpleps %xmm9,%xmm3 .byte 243,68,15,16,72,24 // movss 0x18(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 243,68,15,16,24 // movss (%rax),%xmm11 .byte 243,68,15,16,72,8 // movss 0x8(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,209 // addps %xmm9,%xmm10 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9 .byte 68,15,89,13,244,92,0,0 // mulps 0x5cf4(%rip),%xmm9 # 8e50 <_sk_clut_4D_sse2+0x1ea8> .byte 68,15,84,21,252,92,0,0 // andps 0x5cfc(%rip),%xmm10 # 8e60 <_sk_clut_4D_sse2+0x1eb8> .byte 68,15,86,21,4,93,0,0 // orps 0x5d04(%rip),%xmm10 # 8e70 <_sk_clut_4D_sse2+0x1ec8> .byte 68,15,88,13,12,93,0,0 // addps 0x5d0c(%rip),%xmm9 # 8e80 <_sk_clut_4D_sse2+0x1ed8> .byte 68,15,40,37,20,93,0,0 // movaps 0x5d14(%rip),%xmm12 # 8e90 <_sk_clut_4D_sse2+0x1ee8> .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,88,21,20,93,0,0 // addps 0x5d14(%rip),%xmm10 # 8ea0 <_sk_clut_4D_sse2+0x1ef8> .byte 68,15,40,37,28,93,0,0 // movaps 0x5d1c(%rip),%xmm12 # 8eb0 <_sk_clut_4D_sse2+0x1f08> .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13 .byte 68,15,40,21,6,93,0,0 // movaps 0x5d06(%rip),%xmm10 # 8ec0 <_sk_clut_4D_sse2+0x1f18> .byte 69,15,84,234 // andps %xmm10,%xmm13 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 69,15,40,233 // movaps %xmm9,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 .byte 68,15,88,13,250,92,0,0 // addps 0x5cfa(%rip),%xmm9 # 8ed0 <_sk_clut_4D_sse2+0x1f28> .byte 68,15,40,37,2,93,0,0 // movaps 0x5d02(%rip),%xmm12 # 8ee0 <_sk_clut_4D_sse2+0x1f38> .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,92,204 // subps %xmm12,%xmm9 .byte 68,15,40,37,2,93,0,0 // movaps 0x5d02(%rip),%xmm12 # 8ef0 <_sk_clut_4D_sse2+0x1f48> .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,40,45,6,93,0,0 // movaps 0x5d06(%rip),%xmm13 # 8f00 <_sk_clut_4D_sse2+0x1f58> .byte 69,15,94,236 // divps %xmm12,%xmm13 .byte 69,15,88,233 // addps %xmm9,%xmm13 .byte 68,15,89,45,6,93,0,0 // mulps 0x5d06(%rip),%xmm13 # 8f10 <_sk_clut_4D_sse2+0x1f68> .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9 .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,88,225 // addps %xmm9,%xmm12 .byte 68,15,84,195 // andps %xmm3,%xmm8 .byte 65,15,85,220 // andnps %xmm12,%xmm3 .byte 65,15,86,216 // orps %xmm8,%xmm3 .byte 65,15,95,219 // maxps %xmm11,%xmm3 .byte 65,15,93,218 // minps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_gamma_sse2 .globl _sk_gamma_sse2 FUNCTION(_sk_gamma_sse2) _sk_gamma_sse2: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp) .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp) .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp) .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0 .byte 15,89,5,193,92,0,0 // mulps 0x5cc1(%rip),%xmm0 # 8f20 <_sk_clut_4D_sse2+0x1f78> .byte 15,84,21,202,92,0,0 // andps 0x5cca(%rip),%xmm2 # 8f30 <_sk_clut_4D_sse2+0x1f88> .byte 68,15,40,53,210,92,0,0 // movaps 0x5cd2(%rip),%xmm14 # 8f40 <_sk_clut_4D_sse2+0x1f98> .byte 65,15,86,214 // orps %xmm14,%xmm2 .byte 68,15,40,37,214,92,0,0 // movaps 0x5cd6(%rip),%xmm12 # 8f50 <_sk_clut_4D_sse2+0x1fa8> .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 68,15,40,29,218,92,0,0 // movaps 0x5cda(%rip),%xmm11 # 8f60 <_sk_clut_4D_sse2+0x1fb8> .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 65,15,89,227 // mulps %xmm11,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 68,15,40,21,216,92,0,0 // movaps 0x5cd8(%rip),%xmm10 # 8f70 <_sk_clut_4D_sse2+0x1fc8> .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 68,15,40,45,220,92,0,0 // movaps 0x5cdc(%rip),%xmm13 # 8f80 <_sk_clut_4D_sse2+0x1fd8> .byte 65,15,40,229 // movaps %xmm13,%xmm4 .byte 15,94,226 // divps %xmm2,%xmm4 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,92,196 // subps %xmm4,%xmm0 .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 243,15,91,208 // cvttps2dq %xmm0,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,194,226,1 // cmpltps %xmm2,%xmm4 .byte 68,15,40,13,188,92,0,0 // movaps 0x5cbc(%rip),%xmm9 # 8f90 <_sk_clut_4D_sse2+0x1fe8> .byte 65,15,84,225 // andps %xmm9,%xmm4 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,40,53,184,92,0,0 // movaps 0x5cb8(%rip),%xmm6 # 8fa0 <_sk_clut_4D_sse2+0x1ff8> .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,40,61,206,92,0,0 // movaps 0x5cce(%rip),%xmm7 # 8fc0 <_sk_clut_4D_sse2+0x2018> .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 15,40,37,174,92,0,0 // movaps 0x5cae(%rip),%xmm4 # 8fb0 <_sk_clut_4D_sse2+0x2008> .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 68,15,40,61,192,92,0,0 // movaps 0x5cc0(%rip),%xmm15 # 8fd0 <_sk_clut_4D_sse2+0x2028> .byte 65,15,40,215 // movaps %xmm15,%xmm2 .byte 15,94,213 // divps %xmm5,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 .byte 15,89,5,252,91,0,0 // mulps 0x5bfc(%rip),%xmm0 # 8f20 <_sk_clut_4D_sse2+0x1f78> .byte 15,84,13,5,92,0,0 // andps 0x5c05(%rip),%xmm1 # 8f30 <_sk_clut_4D_sse2+0x1f88> .byte 65,15,86,206 // orps %xmm14,%xmm1 .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 65,15,89,235 // mulps %xmm11,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 69,15,40,242 // movaps %xmm10,%xmm14 .byte 65,15,40,237 // movaps %xmm13,%xmm5 .byte 15,94,233 // divps %xmm1,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,194,233,1 // cmpltps %xmm1,%xmm5 .byte 65,15,84,233 // andps %xmm9,%xmm5 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 68,15,40,214 // movaps %xmm6,%xmm10 .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,40,207 // movaps %xmm15,%xmm1 .byte 15,94,206 // divps %xmm6,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0 .byte 15,89,5,139,91,0,0 // mulps 0x5b8b(%rip),%xmm0 # 8f20 <_sk_clut_4D_sse2+0x1f78> .byte 15,84,29,148,91,0,0 // andps 0x5b94(%rip),%xmm3 # 8f30 <_sk_clut_4D_sse2+0x1f88> .byte 15,86,29,157,91,0,0 // orps 0x5b9d(%rip),%xmm3 # 8f40 <_sk_clut_4D_sse2+0x1f98> .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 68,15,89,219 // mulps %xmm3,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 .byte 65,15,88,222 // addps %xmm14,%xmm3 .byte 68,15,94,235 // divps %xmm3,%xmm13 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 243,15,91,216 // cvttps2dq %xmm0,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,194,235,1 // cmpltps %xmm3,%xmm5 .byte 65,15,84,233 // andps %xmm9,%xmm5 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 68,15,94,255 // divps %xmm7,%xmm15 .byte 68,15,88,248 // addps %xmm0,%xmm15 .byte 15,40,5,234,91,0,0 // movaps 0x5bea(%rip),%xmm0 # 8fe0 <_sk_clut_4D_sse2+0x2038> .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 68,15,89,248 // mulps %xmm0,%xmm15 .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,65,15,91,215 // cvtps2dq %xmm15,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3 .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4 .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5 .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6 .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_lab_to_xyz_sse2 .globl _sk_lab_to_xyz_sse2 FUNCTION(_sk_lab_to_xyz_sse2) _sk_lab_to_xyz_sse2: .byte 15,89,5,191,91,0,0 // mulps 0x5bbf(%rip),%xmm0 # 8ff0 <_sk_clut_4D_sse2+0x2048> .byte 68,15,40,5,199,91,0,0 // movaps 0x5bc7(%rip),%xmm8 # 9000 <_sk_clut_4D_sse2+0x2058> .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 68,15,40,13,203,91,0,0 // movaps 0x5bcb(%rip),%xmm9 # 9010 <_sk_clut_4D_sse2+0x2068> .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,88,209 // addps %xmm9,%xmm2 .byte 15,88,5,200,91,0,0 // addps 0x5bc8(%rip),%xmm0 # 9020 <_sk_clut_4D_sse2+0x2078> .byte 15,89,5,209,91,0,0 // mulps 0x5bd1(%rip),%xmm0 # 9030 <_sk_clut_4D_sse2+0x2088> .byte 15,89,13,218,91,0,0 // mulps 0x5bda(%rip),%xmm1 # 9040 <_sk_clut_4D_sse2+0x2098> .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,89,21,224,91,0,0 // mulps 0x5be0(%rip),%xmm2 # 9050 <_sk_clut_4D_sse2+0x20a8> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,92,202 // subps %xmm2,%xmm9 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,89,225 // mulps %xmm1,%xmm12 .byte 15,40,21,213,91,0,0 // movaps 0x5bd5(%rip),%xmm2 # 9060 <_sk_clut_4D_sse2+0x20b8> .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8 .byte 68,15,40,21,212,91,0,0 // movaps 0x5bd4(%rip),%xmm10 # 9070 <_sk_clut_4D_sse2+0x20c8> .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 68,15,40,29,216,91,0,0 // movaps 0x5bd8(%rip),%xmm11 # 9080 <_sk_clut_4D_sse2+0x20d8> .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 69,15,84,224 // andps %xmm8,%xmm12 .byte 68,15,85,193 // andnps %xmm1,%xmm8 .byte 69,15,86,196 // orps %xmm12,%xmm8 .byte 68,15,40,224 // movaps %xmm0,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,89,224 // mulps %xmm0,%xmm12 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 65,15,194,204,1 // cmpltps %xmm12,%xmm1 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 65,15,89,195 // mulps %xmm11,%xmm0 .byte 68,15,84,225 // andps %xmm1,%xmm12 .byte 15,85,200 // andnps %xmm0,%xmm1 .byte 65,15,86,204 // orps %xmm12,%xmm1 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 15,194,208,1 // cmpltps %xmm0,%xmm2 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 15,84,194 // andps %xmm2,%xmm0 .byte 65,15,85,209 // andnps %xmm9,%xmm2 .byte 15,86,208 // orps %xmm0,%xmm2 .byte 68,15,89,5,136,91,0,0 // mulps 0x5b88(%rip),%xmm8 # 9090 <_sk_clut_4D_sse2+0x20e8> .byte 15,89,21,145,91,0,0 // mulps 0x5b91(%rip),%xmm2 # 90a0 <_sk_clut_4D_sse2+0x20f8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_load_a8_sse2 .globl _sk_load_a8_sse2 FUNCTION(_sk_load_a8_sse2) _sk_load_a8_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,46 // jne 355d <_sk_load_a8_sse2+0x46> .byte 102,67,15,110,4,25 // movd (%r9,%r11,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 102,15,219,5,107,91,0,0 // pand 0x5b6b(%rip),%xmm0 # 90b0 <_sk_clut_4D_sse2+0x2108> .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 .byte 15,89,29,113,91,0,0 // mulps 0x5b71(%rip),%xmm3 # 90c0 <_sk_clut_4D_sse2+0x2118> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,54 // je 35a0 <_sk_load_a8_sse2+0x89> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3589 <_sk_load_a8_sse2+0x72> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,195 // jne 353d <_sk_load_a8_sse2+0x26> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 .byte 235,157 // jmp 353d <_sk_load_a8_sse2+0x26> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,146 // jmp 353d <_sk_load_a8_sse2+0x26> HIDDEN _sk_load_a8_dst_sse2 .globl _sk_load_a8_dst_sse2 FUNCTION(_sk_load_a8_dst_sse2) _sk_load_a8_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,46 // jne 35f1 <_sk_load_a8_dst_sse2+0x46> .byte 102,67,15,110,36,25 // movd (%r9,%r11,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,219,37,247,90,0,0 // pand 0x5af7(%rip),%xmm4 # 90d0 <_sk_clut_4D_sse2+0x2128> .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7 .byte 15,89,61,253,90,0,0 // mulps 0x5afd(%rip),%xmm7 # 90e0 <_sk_clut_4D_sse2+0x2138> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 102,15,87,237 // xorpd %xmm5,%xmm5 .byte 15,87,246 // xorps %xmm6,%xmm6 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,54 // je 3634 <_sk_load_a8_dst_sse2+0x89> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 361d <_sk_load_a8_dst_sse2+0x72> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,195 // jne 35d1 <_sk_load_a8_dst_sse2+0x26> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 235,157 // jmp 35d1 <_sk_load_a8_dst_sse2+0x26> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 235,146 // jmp 35d1 <_sk_load_a8_dst_sse2+0x26> HIDDEN _sk_gather_a8_sse2 .globl _sk_gather_a8_sse2 FUNCTION(_sk_gather_a8_sse2) _sk_gather_a8_sse2: .byte 85 // push %rbp .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 65,15,182,44,25 // movzbl (%r9,%rbx,1),%ebp .byte 67,15,182,28,25 // movzbl (%r9,%r11,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 9,235 // or %ebp,%ebx .byte 67,15,182,44,17 // movzbl (%r9,%r10,1),%ebp .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,232 // or %ebp,%eax .byte 102,15,196,192,0 // pinsrw $0x0,%eax,%xmm0 .byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 .byte 15,89,29,30,90,0,0 // mulps 0x5a1e(%rip),%xmm3 # 90f0 <_sk_clut_4D_sse2+0x2148> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 91 // pop %rbx .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_store_a8_sse2 .globl _sk_store_a8_sse2 FUNCTION(_sk_store_a8_sse2) _sk_store_a8_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 68,15,40,5,2,90,0,0 // movaps 0x5a02(%rip),%xmm8 # 9100 <_sk_clut_4D_sse2+0x2158> .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,69,15,107,192 // packssdw %xmm8,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,13 // jne 372f <_sk_store_a8_sse2+0x4c> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 67,137,4,25 // mov %eax,(%r9,%r11,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,59 // je 3781 <_sk_store_a8_sse2+0x9e> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,22 // je 3762 <_sk_store_a8_sse2+0x7f> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,217 // jne 372b <_sk_store_a8_sse2+0x48> .byte 102,68,15,127,68,36,232 // movdqa %xmm8,-0x18(%rsp) .byte 138,68,36,240 // mov -0x10(%rsp),%al .byte 67,136,68,25,2 // mov %al,0x2(%r9,%r11,1) .byte 102,68,15,219,5,165,89,0,0 // pand 0x59a5(%rip),%xmm8 # 9110 <_sk_clut_4D_sse2+0x2168> .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,67,137,4,25 // mov %ax,(%r9,%r11,1) .byte 235,170 // jmp 372b <_sk_store_a8_sse2+0x48> .byte 102,68,15,127,68,36,216 // movdqa %xmm8,-0x28(%rsp) .byte 138,68,36,216 // mov -0x28(%rsp),%al .byte 67,136,4,25 // mov %al,(%r9,%r11,1) .byte 235,153 // jmp 372b <_sk_store_a8_sse2+0x48> HIDDEN _sk_load_g8_sse2 .globl _sk_load_g8_sse2 FUNCTION(_sk_load_g8_sse2) _sk_load_g8_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,49 // jne 37db <_sk_load_g8_sse2+0x49> .byte 102,67,15,110,4,25 // movd (%r9,%r11,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 102,15,219,5,96,89,0,0 // pand 0x5960(%rip),%xmm0 # 9120 <_sk_clut_4D_sse2+0x2178> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,102,89,0,0 // mulps 0x5966(%rip),%xmm0 # 9130 <_sk_clut_4D_sse2+0x2188> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,109,89,0,0 // movaps 0x596d(%rip),%xmm3 # 9140 <_sk_clut_4D_sse2+0x2198> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,54 // je 381e <_sk_load_g8_sse2+0x8c> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3807 <_sk_load_g8_sse2+0x75> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,192 // jne 37b8 <_sk_load_g8_sse2+0x26> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 .byte 235,154 // jmp 37b8 <_sk_load_g8_sse2+0x26> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,143 // jmp 37b8 <_sk_load_g8_sse2+0x26> HIDDEN _sk_load_g8_dst_sse2 .globl _sk_load_g8_dst_sse2 FUNCTION(_sk_load_g8_dst_sse2) _sk_load_g8_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,49 // jne 3872 <_sk_load_g8_dst_sse2+0x49> .byte 102,67,15,110,36,25 // movd (%r9,%r11,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,219,37,249,88,0,0 // pand 0x58f9(%rip),%xmm4 # 9150 <_sk_clut_4D_sse2+0x21a8> .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,37,255,88,0,0 // mulps 0x58ff(%rip),%xmm4 # 9160 <_sk_clut_4D_sse2+0x21b8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,61,6,89,0,0 // movaps 0x5906(%rip),%xmm7 # 9170 <_sk_clut_4D_sse2+0x21c8> .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,54 // je 38b5 <_sk_load_g8_dst_sse2+0x8c> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 389e <_sk_load_g8_dst_sse2+0x75> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,192 // jne 384f <_sk_load_g8_dst_sse2+0x26> .byte 67,15,182,68,25,2 // movzbl 0x2(%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 67,15,183,4,25 // movzwl (%r9,%r11,1),%eax .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 235,154 // jmp 384f <_sk_load_g8_dst_sse2+0x26> .byte 67,15,182,4,25 // movzbl (%r9,%r11,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 235,143 // jmp 384f <_sk_load_g8_dst_sse2+0x26> HIDDEN _sk_gather_g8_sse2 .globl _sk_gather_g8_sse2 FUNCTION(_sk_gather_g8_sse2) _sk_gather_g8_sse2: .byte 85 // push %rbp .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 65,15,182,44,25 // movzbl (%r9,%rbx,1),%ebp .byte 67,15,182,28,25 // movzbl (%r9,%r11,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 9,235 // or %ebp,%ebx .byte 67,15,182,44,17 // movzbl (%r9,%r10,1),%ebp .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,232 // or %ebp,%eax .byte 102,15,196,192,0 // pinsrw $0x0,%eax,%xmm0 .byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,45,88,0,0 // mulps 0x582d(%rip),%xmm0 # 9180 <_sk_clut_4D_sse2+0x21d8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,52,88,0,0 // movaps 0x5834(%rip),%xmm3 # 9190 <_sk_clut_4D_sse2+0x21e8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 91 // pop %rbx .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_load_565_sse2 .globl _sk_load_565_sse2 FUNCTION(_sk_load_565_sse2) _sk_load_565_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,83 // jne 39d4 <_sk_load_565_sse2+0x6e> .byte 243,67,15,126,20,89 // movq (%r9,%r11,2),%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,111,5,13,88,0,0 // movdqa 0x580d(%rip),%xmm0 # 91a0 <_sk_clut_4D_sse2+0x21f8> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,15,88,0,0 // mulps 0x580f(%rip),%xmm0 # 91b0 <_sk_clut_4D_sse2+0x2208> .byte 102,15,111,13,23,88,0,0 // movdqa 0x5817(%rip),%xmm1 # 91c0 <_sk_clut_4D_sse2+0x2218> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,25,88,0,0 // mulps 0x5819(%rip),%xmm1 # 91d0 <_sk_clut_4D_sse2+0x2228> .byte 102,15,219,21,33,88,0,0 // pand 0x5821(%rip),%xmm2 # 91e0 <_sk_clut_4D_sse2+0x2238> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,39,88,0,0 // mulps 0x5827(%rip),%xmm2 # 91f0 <_sk_clut_4D_sse2+0x2248> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,46,88,0,0 // movaps 0x582e(%rip),%xmm3 # 9200 <_sk_clut_4D_sse2+0x2258> .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,50 // je 3a13 <_sk_load_565_sse2+0xad> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3a00 <_sk_load_565_sse2+0x9a> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,154 // jne 398b <_sk_load_565_sse2+0x25> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2 .byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 242,15,16,208 // movsd %xmm0,%xmm2 .byte 233,120,255,255,255 // jmpq 398b <_sk_load_565_sse2+0x25> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 233,106,255,255,255 // jmpq 398b <_sk_load_565_sse2+0x25> HIDDEN _sk_load_565_dst_sse2 .globl _sk_load_565_dst_sse2 FUNCTION(_sk_load_565_dst_sse2) _sk_load_565_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,83 // jne 3a8f <_sk_load_565_dst_sse2+0x6e> .byte 243,67,15,126,52,89 // movq (%r9,%r11,2),%xmm6 .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6 .byte 102,15,111,37,194,87,0,0 // movdqa 0x57c2(%rip),%xmm4 # 9210 <_sk_clut_4D_sse2+0x2268> .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,37,196,87,0,0 // mulps 0x57c4(%rip),%xmm4 # 9220 <_sk_clut_4D_sse2+0x2278> .byte 102,15,111,45,204,87,0,0 // movdqa 0x57cc(%rip),%xmm5 # 9230 <_sk_clut_4D_sse2+0x2288> .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,45,206,87,0,0 // mulps 0x57ce(%rip),%xmm5 # 9240 <_sk_clut_4D_sse2+0x2298> .byte 102,15,219,53,214,87,0,0 // pand 0x57d6(%rip),%xmm6 # 9250 <_sk_clut_4D_sse2+0x22a8> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,53,220,87,0,0 // mulps 0x57dc(%rip),%xmm6 # 9260 <_sk_clut_4D_sse2+0x22b8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,61,227,87,0,0 // movaps 0x57e3(%rip),%xmm7 # 9270 <_sk_clut_4D_sse2+0x22c8> .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,50 // je 3ace <_sk_load_565_dst_sse2+0xad> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3abb <_sk_load_565_dst_sse2+0x9a> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,154 // jne 3a46 <_sk_load_565_dst_sse2+0x25> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6 .byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 242,15,16,244 // movsd %xmm4,%xmm6 .byte 233,120,255,255,255 // jmpq 3a46 <_sk_load_565_dst_sse2+0x25> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,240 // movd %eax,%xmm6 .byte 233,106,255,255,255 // jmpq 3a46 <_sk_load_565_dst_sse2+0x25> HIDDEN _sk_gather_565_sse2 .globl _sk_gather_565_sse2 FUNCTION(_sk_gather_565_sse2) _sk_gather_565_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,65,15,196,20,89,0 // pinsrw $0x0,(%r9,%rbx,2),%xmm2 .byte 102,67,15,196,20,89,1 // pinsrw $0x1,(%r9,%r11,2),%xmm2 .byte 67,15,183,28,81 // movzwl (%r9,%r10,2),%ebx .byte 102,15,196,211,2 // pinsrw $0x2,%ebx,%xmm2 .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,111,5,30,87,0,0 // movdqa 0x571e(%rip),%xmm0 # 9280 <_sk_clut_4D_sse2+0x22d8> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,32,87,0,0 // mulps 0x5720(%rip),%xmm0 # 9290 <_sk_clut_4D_sse2+0x22e8> .byte 102,15,111,13,40,87,0,0 // movdqa 0x5728(%rip),%xmm1 # 92a0 <_sk_clut_4D_sse2+0x22f8> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,42,87,0,0 // mulps 0x572a(%rip),%xmm1 # 92b0 <_sk_clut_4D_sse2+0x2308> .byte 102,15,219,21,50,87,0,0 // pand 0x5732(%rip),%xmm2 # 92c0 <_sk_clut_4D_sse2+0x2318> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,56,87,0,0 // mulps 0x5738(%rip),%xmm2 # 92d0 <_sk_clut_4D_sse2+0x2328> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,63,87,0,0 // movaps 0x573f(%rip),%xmm3 # 92e0 <_sk_clut_4D_sse2+0x2338> .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_565_sse2 .globl _sk_store_565_sse2 FUNCTION(_sk_store_565_sse2) _sk_store_565_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 68,15,40,5,46,87,0,0 // movaps 0x572e(%rip),%xmm8 # 92f0 <_sk_clut_4D_sse2+0x2348> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,11 // pslld $0xb,%xmm9 .byte 68,15,40,21,35,87,0,0 // movaps 0x5723(%rip),%xmm10 # 9300 <_sk_clut_4D_sse2+0x2358> .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,5 // pslld $0x5,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,69,15,107,192 // packssdw %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 3c1f <_sk_store_565_sse2+0x7b> .byte 242,71,15,17,4,89 // movsd %xmm8,(%r9,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,38 // je 3c57 <_sk_store_565_sse2+0xb3> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 3c49 <_sk_store_565_sse2+0xa5> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,222 // jne 3c1b <_sk_store_565_sse2+0x77> .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax .byte 102,67,137,68,89,4 // mov %ax,0x4(%r9,%r11,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,71,15,126,4,89 // movd %xmm8,(%r9,%r11,2) .byte 235,196 // jmp 3c1b <_sk_store_565_sse2+0x77> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,67,137,4,89 // mov %ax,(%r9,%r11,2) .byte 235,184 // jmp 3c1b <_sk_store_565_sse2+0x77> HIDDEN _sk_load_4444_sse2 .globl _sk_load_4444_sse2 FUNCTION(_sk_load_4444_sse2) _sk_load_4444_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,98 // jne 3ce0 <_sk_load_4444_sse2+0x7d> .byte 243,67,15,126,28,89 // movq (%r9,%r11,2),%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 102,15,111,5,128,86,0,0 // movdqa 0x5680(%rip),%xmm0 # 9310 <_sk_clut_4D_sse2+0x2368> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,130,86,0,0 // mulps 0x5682(%rip),%xmm0 # 9320 <_sk_clut_4D_sse2+0x2378> .byte 102,15,111,13,138,86,0,0 // movdqa 0x568a(%rip),%xmm1 # 9330 <_sk_clut_4D_sse2+0x2388> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,140,86,0,0 // mulps 0x568c(%rip),%xmm1 # 9340 <_sk_clut_4D_sse2+0x2398> .byte 102,15,111,21,148,86,0,0 // movdqa 0x5694(%rip),%xmm2 # 9350 <_sk_clut_4D_sse2+0x23a8> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,150,86,0,0 // mulps 0x5696(%rip),%xmm2 # 9360 <_sk_clut_4D_sse2+0x23b8> .byte 102,15,219,29,158,86,0,0 // pand 0x569e(%rip),%xmm3 # 9370 <_sk_clut_4D_sse2+0x23c8> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,29,164,86,0,0 // mulps 0x56a4(%rip),%xmm3 # 9380 <_sk_clut_4D_sse2+0x23d8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,50 // je 3d1f <_sk_load_4444_sse2+0xbc> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3d0c <_sk_load_4444_sse2+0xa9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,139 // jne 3c88 <_sk_load_4444_sse2+0x25> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,67,15,110,4,89 // movd (%r9,%r11,2),%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 242,15,16,216 // movsd %xmm0,%xmm3 .byte 233,105,255,255,255 // jmpq 3c88 <_sk_load_4444_sse2+0x25> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 233,91,255,255,255 // jmpq 3c88 <_sk_load_4444_sse2+0x25> HIDDEN _sk_load_4444_dst_sse2 .globl _sk_load_4444_dst_sse2 FUNCTION(_sk_load_4444_dst_sse2) _sk_load_4444_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 77,133,192 // test %r8,%r8 .byte 117,98 // jne 3daa <_sk_load_4444_dst_sse2+0x7d> .byte 243,67,15,126,60,89 // movq (%r9,%r11,2),%xmm7 .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7 .byte 102,15,111,37,54,86,0,0 // movdqa 0x5636(%rip),%xmm4 # 9390 <_sk_clut_4D_sse2+0x23e8> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,37,56,86,0,0 // mulps 0x5638(%rip),%xmm4 # 93a0 <_sk_clut_4D_sse2+0x23f8> .byte 102,15,111,45,64,86,0,0 // movdqa 0x5640(%rip),%xmm5 # 93b0 <_sk_clut_4D_sse2+0x2408> .byte 102,15,219,239 // pand %xmm7,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,45,66,86,0,0 // mulps 0x5642(%rip),%xmm5 # 93c0 <_sk_clut_4D_sse2+0x2418> .byte 102,15,111,53,74,86,0,0 // movdqa 0x564a(%rip),%xmm6 # 93d0 <_sk_clut_4D_sse2+0x2428> .byte 102,15,219,247 // pand %xmm7,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,53,76,86,0,0 // mulps 0x564c(%rip),%xmm6 # 93e0 <_sk_clut_4D_sse2+0x2438> .byte 102,15,219,61,84,86,0,0 // pand 0x5654(%rip),%xmm7 # 93f0 <_sk_clut_4D_sse2+0x2448> .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,89,61,90,86,0,0 // mulps 0x565a(%rip),%xmm7 # 9400 <_sk_clut_4D_sse2+0x2458> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,50 // je 3de9 <_sk_load_4444_dst_sse2+0xbc> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,21 // je 3dd6 <_sk_load_4444_dst_sse2+0xa9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,139 // jne 3d52 <_sk_load_4444_dst_sse2+0x25> .byte 67,15,183,68,89,4 // movzwl 0x4(%r9,%r11,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,67,15,110,36,89 // movd (%r9,%r11,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 242,15,16,252 // movsd %xmm4,%xmm7 .byte 233,105,255,255,255 // jmpq 3d52 <_sk_load_4444_dst_sse2+0x25> .byte 67,15,183,4,89 // movzwl (%r9,%r11,2),%eax .byte 102,15,110,248 // movd %eax,%xmm7 .byte 233,91,255,255,255 // jmpq 3d52 <_sk_load_4444_dst_sse2+0x25> HIDDEN _sk_gather_4444_sse2 .globl _sk_gather_4444_sse2 FUNCTION(_sk_gather_4444_sse2) _sk_gather_4444_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,65,15,196,28,89,0 // pinsrw $0x0,(%r9,%rbx,2),%xmm3 .byte 102,67,15,196,28,89,1 // pinsrw $0x1,(%r9,%r11,2),%xmm3 .byte 67,15,183,28,81 // movzwl (%r9,%r10,2),%ebx .byte 102,15,196,219,2 // pinsrw $0x2,%ebx,%xmm3 .byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax .byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 102,15,111,5,147,85,0,0 // movdqa 0x5593(%rip),%xmm0 # 9410 <_sk_clut_4D_sse2+0x2468> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,5,149,85,0,0 // mulps 0x5595(%rip),%xmm0 # 9420 <_sk_clut_4D_sse2+0x2478> .byte 102,15,111,13,157,85,0,0 // movdqa 0x559d(%rip),%xmm1 # 9430 <_sk_clut_4D_sse2+0x2488> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,13,159,85,0,0 // mulps 0x559f(%rip),%xmm1 # 9440 <_sk_clut_4D_sse2+0x2498> .byte 102,15,111,21,167,85,0,0 // movdqa 0x55a7(%rip),%xmm2 # 9450 <_sk_clut_4D_sse2+0x24a8> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,21,169,85,0,0 // mulps 0x55a9(%rip),%xmm2 # 9460 <_sk_clut_4D_sse2+0x24b8> .byte 102,15,219,29,177,85,0,0 // pand 0x55b1(%rip),%xmm3 # 9470 <_sk_clut_4D_sse2+0x24c8> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,29,183,85,0,0 // mulps 0x55b7(%rip),%xmm3 # 9480 <_sk_clut_4D_sse2+0x24d8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_4444_sse2 .globl _sk_store_4444_sse2 FUNCTION(_sk_store_4444_sse2) _sk_store_4444_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 76,99,218 // movslq %edx,%r11 .byte 68,15,40,5,164,85,0,0 // movaps 0x55a4(%rip),%xmm8 # 9490 <_sk_clut_4D_sse2+0x24e8> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,12 // pslld $0xc,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,4 // pslld $0x4,%xmm9 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,86,193 // orpd %xmm9,%xmm8 .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,69,15,107,192 // packssdw %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 3f5d <_sk_store_4444_sse2+0x8f> .byte 242,71,15,17,4,89 // movsd %xmm8,(%r9,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,38 // je 3f95 <_sk_store_4444_sse2+0xc7> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,18 // je 3f87 <_sk_store_4444_sse2+0xb9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,222 // jne 3f59 <_sk_store_4444_sse2+0x8b> .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax .byte 102,67,137,68,89,4 // mov %ax,0x4(%r9,%r11,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,71,15,126,4,89 // movd %xmm8,(%r9,%r11,2) .byte 235,196 // jmp 3f59 <_sk_store_4444_sse2+0x8b> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,67,137,4,89 // mov %ax,(%r9,%r11,2) .byte 235,184 // jmp 3f59 <_sk_store_4444_sse2+0x8b> HIDDEN _sk_load_8888_sse2 .globl _sk_load_8888_sse2 FUNCTION(_sk_load_8888_sse2) _sk_load_8888_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,98 // jne 401f <_sk_load_8888_sse2+0x7e> .byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9 .byte 102,15,111,21,213,84,0,0 // movdqa 0x54d5(%rip),%xmm2 # 94a0 <_sk_clut_4D_sse2+0x24f8> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,5,209,84,0,0 // movaps 0x54d1(%rip),%xmm8 # 94b0 <_sk_clut_4D_sse2+0x2508> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3 .byte 102,15,114,211,16 // psrld $0x10,%xmm3 .byte 102,15,219,218 // pand %xmm2,%xmm3 .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,41 // je 4055 <_sk_load_8888_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,19 // je 404a <_sk_load_8888_sse2+0xa9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,134 // jne 3fc3 <_sk_load_8888_sse2+0x22> .byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0 .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9 .byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9 .byte 233,110,255,255,255 // jmpq 3fc3 <_sk_load_8888_sse2+0x22> .byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9 .byte 233,99,255,255,255 // jmpq 3fc3 <_sk_load_8888_sse2+0x22> HIDDEN _sk_load_8888_dst_sse2 .globl _sk_load_8888_dst_sse2 FUNCTION(_sk_load_8888_dst_sse2) _sk_load_8888_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,98 // jne 40de <_sk_load_8888_dst_sse2+0x7e> .byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9 .byte 102,15,111,53,54,84,0,0 // movdqa 0x5436(%rip),%xmm6 # 94c0 <_sk_clut_4D_sse2+0x2518> .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 68,15,40,5,50,84,0,0 // movaps 0x5432(%rip),%xmm8 # 94d0 <_sk_clut_4D_sse2+0x2528> .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,219,254 // pand %xmm6,%xmm7 .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6 .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7 .byte 65,15,89,248 // mulps %xmm8,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,41 // je 4114 <_sk_load_8888_dst_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,19 // je 4109 <_sk_load_8888_dst_sse2+0xa9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,134 // jne 4082 <_sk_load_8888_dst_sse2+0x22> .byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4 .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9 .byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9 .byte 233,110,255,255,255 // jmpq 4082 <_sk_load_8888_dst_sse2+0x22> .byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9 .byte 233,99,255,255,255 // jmpq 4082 <_sk_load_8888_dst_sse2+0x22> HIDDEN _sk_gather_8888_sse2 .globl _sk_gather_8888_sse2 FUNCTION(_sk_gather_8888_sse2) _sk_gather_8888_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,67,15,110,4,153 // movd (%r9,%r11,4),%xmm0 .byte 102,65,15,110,12,129 // movd (%r9,%rax,4),%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,69,15,110,12,153 // movd (%r9,%rbx,4),%xmm9 .byte 102,67,15,110,12,145 // movd (%r9,%r10,4),%xmm1 .byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9 .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9 .byte 102,15,111,21,63,83,0,0 // movdqa 0x533f(%rip),%xmm2 # 94e0 <_sk_clut_4D_sse2+0x2538> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 68,15,40,5,59,83,0,0 // movaps 0x533b(%rip),%xmm8 # 94f0 <_sk_clut_4D_sse2+0x2548> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3 .byte 102,15,114,211,16 // psrld $0x10,%xmm3 .byte 102,15,219,218 // pand %xmm2,%xmm3 .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_8888_sse2 .globl _sk_store_8888_sse2 FUNCTION(_sk_store_8888_sse2) _sk_store_8888_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 68,15,40,5,235,82,0,0 // movaps 0x52eb(%rip),%xmm8 # 9500 <_sk_clut_4D_sse2+0x2558> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 102,69,15,235,194 // por %xmm10,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 4275 <_sk_store_8888_sse2+0x7f> .byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,33 // je 42a3 <_sk_store_8888_sse2+0xad> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,19 // je 429b <_sk_store_8888_sse2+0xa5> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,227 // jne 4271 <_sk_store_8888_sse2+0x7b> .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9 .byte 102,69,15,126,76,129,8 // movd %xmm9,0x8(%r9,%rax,4) .byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4) .byte 235,206 // jmp 4271 <_sk_store_8888_sse2+0x7b> .byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4) .byte 235,198 // jmp 4271 <_sk_store_8888_sse2+0x7b> HIDDEN _sk_load_bgra_sse2 .globl _sk_load_bgra_sse2 FUNCTION(_sk_load_bgra_sse2) _sk_load_bgra_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,98 // jne 4329 <_sk_load_bgra_sse2+0x7e> .byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9 .byte 102,15,111,5,59,82,0,0 // movdqa 0x523b(%rip),%xmm0 # 9510 <_sk_clut_4D_sse2+0x2568> .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 .byte 68,15,40,5,55,82,0,0 // movaps 0x5237(%rip),%xmm8 # 9520 <_sk_clut_4D_sse2+0x2578> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3 .byte 102,15,114,211,16 // psrld $0x10,%xmm3 .byte 102,15,219,216 // pand %xmm0,%xmm3 .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,41 // je 435f <_sk_load_bgra_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,19 // je 4354 <_sk_load_bgra_sse2+0xa9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,134 // jne 42cd <_sk_load_bgra_sse2+0x22> .byte 102,65,15,110,68,129,8 // movd 0x8(%r9,%rax,4),%xmm0 .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9 .byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9 .byte 233,110,255,255,255 // jmpq 42cd <_sk_load_bgra_sse2+0x22> .byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9 .byte 233,99,255,255,255 // jmpq 42cd <_sk_load_bgra_sse2+0x22> HIDDEN _sk_load_bgra_dst_sse2 .globl _sk_load_bgra_dst_sse2 FUNCTION(_sk_load_bgra_dst_sse2) _sk_load_bgra_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 117,98 // jne 43e8 <_sk_load_bgra_dst_sse2+0x7e> .byte 243,69,15,111,12,129 // movdqu (%r9,%rax,4),%xmm9 .byte 102,15,111,37,156,81,0,0 // movdqa 0x519c(%rip),%xmm4 # 9530 <_sk_clut_4D_sse2+0x2588> .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 .byte 68,15,40,5,152,81,0,0 // movaps 0x5198(%rip),%xmm8 # 9540 <_sk_clut_4D_sse2+0x2598> .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,219,252 // pand %xmm4,%xmm7 .byte 15,91,231 // cvtdq2ps %xmm7,%xmm4 .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7 .byte 65,15,89,248 // mulps %xmm8,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,41 // je 441e <_sk_load_bgra_dst_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,19 // je 4413 <_sk_load_bgra_dst_sse2+0xa9> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,134 // jne 438c <_sk_load_bgra_dst_sse2+0x22> .byte 102,65,15,110,100,129,8 // movd 0x8(%r9,%rax,4),%xmm4 .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9 .byte 102,69,15,18,12,129 // movlpd (%r9,%rax,4),%xmm9 .byte 233,110,255,255,255 // jmpq 438c <_sk_load_bgra_dst_sse2+0x22> .byte 102,69,15,110,12,129 // movd (%r9,%rax,4),%xmm9 .byte 233,99,255,255,255 // jmpq 438c <_sk_load_bgra_dst_sse2+0x22> HIDDEN _sk_gather_bgra_sse2 .globl _sk_gather_bgra_sse2 FUNCTION(_sk_gather_bgra_sse2) _sk_gather_bgra_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,67,15,110,4,153 // movd (%r9,%r11,4),%xmm0 .byte 102,65,15,110,12,129 // movd (%r9,%rax,4),%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,69,15,110,12,153 // movd (%r9,%rbx,4),%xmm9 .byte 102,67,15,110,12,145 // movd (%r9,%r10,4),%xmm1 .byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9 .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9 .byte 102,15,111,5,165,80,0,0 // movdqa 0x50a5(%rip),%xmm0 # 9550 <_sk_clut_4D_sse2+0x25a8> .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 .byte 68,15,40,5,161,80,0,0 // movaps 0x50a1(%rip),%xmm8 # 9560 <_sk_clut_4D_sse2+0x25b8> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3 .byte 102,15,114,211,16 // psrld $0x10,%xmm3 .byte 102,15,219,216 // pand %xmm0,%xmm3 .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_bgra_sse2 .globl _sk_store_bgra_sse2 FUNCTION(_sk_store_bgra_sse2) _sk_store_bgra_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 68,15,40,5,81,80,0,0 // movaps 0x5051(%rip),%xmm8 # 9570 <_sk_clut_4D_sse2+0x25c8> .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 102,69,15,235,194 // por %xmm10,%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,10 // jne 457f <_sk_store_bgra_sse2+0x7f> .byte 243,69,15,127,4,129 // movdqu %xmm8,(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,137,194 // mov %r8d,%r10d .byte 65,128,226,3 // and $0x3,%r10b .byte 65,128,250,1 // cmp $0x1,%r10b .byte 116,33 // je 45ad <_sk_store_bgra_sse2+0xad> .byte 65,128,250,2 // cmp $0x2,%r10b .byte 116,19 // je 45a5 <_sk_store_bgra_sse2+0xa5> .byte 65,128,250,3 // cmp $0x3,%r10b .byte 117,227 // jne 457b <_sk_store_bgra_sse2+0x7b> .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9 .byte 102,69,15,126,76,129,8 // movd %xmm9,0x8(%r9,%rax,4) .byte 102,69,15,214,4,129 // movq %xmm8,(%r9,%rax,4) .byte 235,206 // jmp 457b <_sk_store_bgra_sse2+0x7b> .byte 102,69,15,126,4,129 // movd %xmm8,(%r9,%rax,4) .byte 235,198 // jmp 457b <_sk_store_bgra_sse2+0x7b> HIDDEN _sk_load_f16_sse2 .globl _sk_load_f16_sse2 FUNCTION(_sk_load_f16_sse2) _sk_load_f16_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,98,1,0,0 // jne 4737 <_sk_load_f16_sse2+0x182> .byte 102,65,15,16,4,193 // movupd (%r9,%rax,8),%xmm0 .byte 102,65,15,16,76,193,16 // movupd 0x10(%r9,%rax,8),%xmm1 .byte 102,68,15,40,192 // movapd %xmm0,%xmm8 .byte 102,68,15,97,193 // punpcklwd %xmm1,%xmm8 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,69,15,111,240 // movdqa %xmm8,%xmm14 .byte 102,68,15,97,240 // punpcklwd %xmm0,%xmm14 .byte 102,68,15,105,192 // punpckhwd %xmm0,%xmm8 .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1 .byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1 .byte 102,68,15,111,13,105,79,0,0 // movdqa 0x4f69(%rip),%xmm9 # 9580 <_sk_clut_4D_sse2+0x25d8> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,193 // pand %xmm9,%xmm0 .byte 102,15,239,200 // pxor %xmm0,%xmm1 .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,68,15,111,233 // movdqa %xmm1,%xmm13 .byte 102,65,15,114,245,13 // pslld $0xd,%xmm13 .byte 102,68,15,235,232 // por %xmm0,%xmm13 .byte 102,68,15,111,29,78,79,0,0 // movdqa 0x4f4e(%rip),%xmm11 # 9590 <_sk_clut_4D_sse2+0x25e8> .byte 102,69,15,254,235 // paddd %xmm11,%xmm13 .byte 102,68,15,111,37,80,79,0,0 // movdqa 0x4f50(%rip),%xmm12 # 95a0 <_sk_clut_4D_sse2+0x25f8> .byte 102,65,15,239,204 // pxor %xmm12,%xmm1 .byte 102,15,111,29,83,79,0,0 // movdqa 0x4f53(%rip),%xmm3 # 95b0 <_sk_clut_4D_sse2+0x2608> .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0 .byte 102,65,15,223,197 // pandn %xmm13,%xmm0 .byte 102,65,15,115,222,8 // psrldq $0x8,%xmm14 .byte 102,69,15,97,242 // punpcklwd %xmm10,%xmm14 .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1 .byte 102,65,15,219,201 // pand %xmm9,%xmm1 .byte 102,68,15,239,241 // pxor %xmm1,%xmm14 .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,65,15,111,214 // movdqa %xmm14,%xmm2 .byte 102,15,114,242,13 // pslld $0xd,%xmm2 .byte 102,15,235,209 // por %xmm1,%xmm2 .byte 102,65,15,254,211 // paddd %xmm11,%xmm2 .byte 102,69,15,239,244 // pxor %xmm12,%xmm14 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,65,15,102,206 // pcmpgtd %xmm14,%xmm1 .byte 102,15,223,202 // pandn %xmm2,%xmm1 .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13 .byte 102,69,15,97,234 // punpcklwd %xmm10,%xmm13 .byte 102,65,15,111,213 // movdqa %xmm13,%xmm2 .byte 102,65,15,219,209 // pand %xmm9,%xmm2 .byte 102,68,15,239,234 // pxor %xmm2,%xmm13 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14 .byte 102,65,15,114,246,13 // pslld $0xd,%xmm14 .byte 102,68,15,235,242 // por %xmm2,%xmm14 .byte 102,69,15,254,243 // paddd %xmm11,%xmm14 .byte 102,69,15,239,236 // pxor %xmm12,%xmm13 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,65,15,102,213 // pcmpgtd %xmm13,%xmm2 .byte 102,65,15,223,214 // pandn %xmm14,%xmm2 .byte 102,65,15,115,216,8 // psrldq $0x8,%xmm8 .byte 102,69,15,97,194 // punpcklwd %xmm10,%xmm8 .byte 102,69,15,219,200 // pand %xmm8,%xmm9 .byte 102,69,15,239,193 // pxor %xmm9,%xmm8 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,65,15,114,242,13 // pslld $0xd,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 102,69,15,254,211 // paddd %xmm11,%xmm10 .byte 102,69,15,239,196 // pxor %xmm12,%xmm8 .byte 102,65,15,102,216 // pcmpgtd %xmm8,%xmm3 .byte 102,65,15,223,218 // pandn %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,193 // movsd (%r9,%rax,8),%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,17 // jne 4754 <_sk_load_f16_sse2+0x19f> .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 233,142,254,255,255 // jmpq 45e2 <_sk_load_f16_sse2+0x2d> .byte 102,65,15,22,68,193,8 // movhpd 0x8(%r9,%rax,8),%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,121,254,255,255 // jb 45e2 <_sk_load_f16_sse2+0x2d> .byte 242,65,15,16,76,193,16 // movsd 0x10(%r9,%rax,8),%xmm1 .byte 233,109,254,255,255 // jmpq 45e2 <_sk_load_f16_sse2+0x2d> HIDDEN _sk_load_f16_dst_sse2 .globl _sk_load_f16_dst_sse2 FUNCTION(_sk_load_f16_dst_sse2) _sk_load_f16_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,98,1,0,0 // jne 48f7 <_sk_load_f16_dst_sse2+0x182> .byte 102,65,15,16,36,193 // movupd (%r9,%rax,8),%xmm4 .byte 102,65,15,16,108,193,16 // movupd 0x10(%r9,%rax,8),%xmm5 .byte 102,68,15,40,196 // movapd %xmm4,%xmm8 .byte 102,68,15,97,197 // punpcklwd %xmm5,%xmm8 .byte 102,15,105,229 // punpckhwd %xmm5,%xmm4 .byte 102,69,15,111,240 // movdqa %xmm8,%xmm14 .byte 102,68,15,97,244 // punpcklwd %xmm4,%xmm14 .byte 102,68,15,105,196 // punpckhwd %xmm4,%xmm8 .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 102,65,15,111,238 // movdqa %xmm14,%xmm5 .byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5 .byte 102,68,15,111,13,233,77,0,0 // movdqa 0x4de9(%rip),%xmm9 # 95c0 <_sk_clut_4D_sse2+0x2618> .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,65,15,219,225 // pand %xmm9,%xmm4 .byte 102,15,239,236 // pxor %xmm4,%xmm5 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,68,15,111,237 // movdqa %xmm5,%xmm13 .byte 102,65,15,114,245,13 // pslld $0xd,%xmm13 .byte 102,68,15,235,236 // por %xmm4,%xmm13 .byte 102,68,15,111,29,206,77,0,0 // movdqa 0x4dce(%rip),%xmm11 # 95d0 <_sk_clut_4D_sse2+0x2628> .byte 102,69,15,254,235 // paddd %xmm11,%xmm13 .byte 102,68,15,111,37,208,77,0,0 // movdqa 0x4dd0(%rip),%xmm12 # 95e0 <_sk_clut_4D_sse2+0x2638> .byte 102,65,15,239,236 // pxor %xmm12,%xmm5 .byte 102,15,111,61,211,77,0,0 // movdqa 0x4dd3(%rip),%xmm7 # 95f0 <_sk_clut_4D_sse2+0x2648> .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4 .byte 102,65,15,223,229 // pandn %xmm13,%xmm4 .byte 102,65,15,115,222,8 // psrldq $0x8,%xmm14 .byte 102,69,15,97,242 // punpcklwd %xmm10,%xmm14 .byte 102,65,15,111,238 // movdqa %xmm14,%xmm5 .byte 102,65,15,219,233 // pand %xmm9,%xmm5 .byte 102,68,15,239,245 // pxor %xmm5,%xmm14 .byte 102,15,114,245,16 // pslld $0x10,%xmm5 .byte 102,65,15,111,246 // movdqa %xmm14,%xmm6 .byte 102,15,114,246,13 // pslld $0xd,%xmm6 .byte 102,15,235,245 // por %xmm5,%xmm6 .byte 102,65,15,254,243 // paddd %xmm11,%xmm6 .byte 102,69,15,239,244 // pxor %xmm12,%xmm14 .byte 102,15,111,239 // movdqa %xmm7,%xmm5 .byte 102,65,15,102,238 // pcmpgtd %xmm14,%xmm5 .byte 102,15,223,238 // pandn %xmm6,%xmm5 .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13 .byte 102,69,15,97,234 // punpcklwd %xmm10,%xmm13 .byte 102,65,15,111,245 // movdqa %xmm13,%xmm6 .byte 102,65,15,219,241 // pand %xmm9,%xmm6 .byte 102,68,15,239,238 // pxor %xmm6,%xmm13 .byte 102,15,114,246,16 // pslld $0x10,%xmm6 .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14 .byte 102,65,15,114,246,13 // pslld $0xd,%xmm14 .byte 102,68,15,235,246 // por %xmm6,%xmm14 .byte 102,69,15,254,243 // paddd %xmm11,%xmm14 .byte 102,69,15,239,236 // pxor %xmm12,%xmm13 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 .byte 102,65,15,102,245 // pcmpgtd %xmm13,%xmm6 .byte 102,65,15,223,246 // pandn %xmm14,%xmm6 .byte 102,65,15,115,216,8 // psrldq $0x8,%xmm8 .byte 102,69,15,97,194 // punpcklwd %xmm10,%xmm8 .byte 102,69,15,219,200 // pand %xmm8,%xmm9 .byte 102,69,15,239,193 // pxor %xmm9,%xmm8 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,65,15,114,242,13 // pslld $0xd,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 102,69,15,254,211 // paddd %xmm11,%xmm10 .byte 102,69,15,239,196 // pxor %xmm12,%xmm8 .byte 102,65,15,102,248 // pcmpgtd %xmm8,%xmm7 .byte 102,65,15,223,250 // pandn %xmm10,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 242,65,15,16,36,193 // movsd (%r9,%rax,8),%xmm4 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,17 // jne 4914 <_sk_load_f16_dst_sse2+0x19f> .byte 102,15,87,237 // xorpd %xmm5,%xmm5 .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4 .byte 102,15,87,237 // xorpd %xmm5,%xmm5 .byte 233,142,254,255,255 // jmpq 47a2 <_sk_load_f16_dst_sse2+0x2d> .byte 102,65,15,22,100,193,8 // movhpd 0x8(%r9,%rax,8),%xmm4 .byte 102,15,87,237 // xorpd %xmm5,%xmm5 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,121,254,255,255 // jb 47a2 <_sk_load_f16_dst_sse2+0x2d> .byte 242,65,15,16,108,193,16 // movsd 0x10(%r9,%rax,8),%xmm5 .byte 233,109,254,255,255 // jmpq 47a2 <_sk_load_f16_dst_sse2+0x2d> HIDDEN _sk_gather_f16_sse2 .globl _sk_gather_f16_sse2 FUNCTION(_sk_gather_f16_sse2) _sk_gather_f16_sse2: .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,194 // mov %eax,%r10d .byte 72,193,232,32 // shr $0x20,%rax .byte 102,73,15,126,195 // movq %xmm0,%r11 .byte 68,137,219 // mov %r11d,%ebx .byte 73,193,235,32 // shr $0x20,%r11 .byte 243,67,15,126,4,217 // movq (%r9,%r11,8),%xmm0 .byte 243,65,15,126,12,217 // movq (%r9,%rbx,8),%xmm1 .byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1 .byte 243,65,15,126,4,193 // movq (%r9,%rax,8),%xmm0 .byte 243,67,15,126,20,209 // movq (%r9,%r10,8),%xmm2 .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2 .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8 .byte 102,68,15,97,194 // punpcklwd %xmm2,%xmm8 .byte 102,15,105,202 // punpckhwd %xmm2,%xmm1 .byte 102,69,15,111,240 // movdqa %xmm8,%xmm14 .byte 102,68,15,97,241 // punpcklwd %xmm1,%xmm14 .byte 102,68,15,105,193 // punpckhwd %xmm1,%xmm8 .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1 .byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1 .byte 102,68,15,111,13,34,76,0,0 // movdqa 0x4c22(%rip),%xmm9 # 9600 <_sk_clut_4D_sse2+0x2658> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,193 // pand %xmm9,%xmm0 .byte 102,15,239,200 // pxor %xmm0,%xmm1 .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,68,15,111,233 // movdqa %xmm1,%xmm13 .byte 102,65,15,114,245,13 // pslld $0xd,%xmm13 .byte 102,68,15,235,232 // por %xmm0,%xmm13 .byte 102,68,15,111,29,7,76,0,0 // movdqa 0x4c07(%rip),%xmm11 # 9610 <_sk_clut_4D_sse2+0x2668> .byte 102,69,15,254,235 // paddd %xmm11,%xmm13 .byte 102,68,15,111,37,9,76,0,0 // movdqa 0x4c09(%rip),%xmm12 # 9620 <_sk_clut_4D_sse2+0x2678> .byte 102,65,15,239,204 // pxor %xmm12,%xmm1 .byte 102,15,111,29,12,76,0,0 // movdqa 0x4c0c(%rip),%xmm3 # 9630 <_sk_clut_4D_sse2+0x2688> .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0 .byte 102,65,15,223,197 // pandn %xmm13,%xmm0 .byte 102,65,15,115,222,8 // psrldq $0x8,%xmm14 .byte 102,69,15,97,242 // punpcklwd %xmm10,%xmm14 .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1 .byte 102,65,15,219,201 // pand %xmm9,%xmm1 .byte 102,68,15,239,241 // pxor %xmm1,%xmm14 .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,65,15,111,214 // movdqa %xmm14,%xmm2 .byte 102,15,114,242,13 // pslld $0xd,%xmm2 .byte 102,15,235,209 // por %xmm1,%xmm2 .byte 102,65,15,254,211 // paddd %xmm11,%xmm2 .byte 102,69,15,239,244 // pxor %xmm12,%xmm14 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,65,15,102,206 // pcmpgtd %xmm14,%xmm1 .byte 102,15,223,202 // pandn %xmm2,%xmm1 .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13 .byte 102,69,15,97,234 // punpcklwd %xmm10,%xmm13 .byte 102,65,15,111,213 // movdqa %xmm13,%xmm2 .byte 102,65,15,219,209 // pand %xmm9,%xmm2 .byte 102,68,15,239,234 // pxor %xmm2,%xmm13 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14 .byte 102,65,15,114,246,13 // pslld $0xd,%xmm14 .byte 102,68,15,235,242 // por %xmm2,%xmm14 .byte 102,69,15,254,243 // paddd %xmm11,%xmm14 .byte 102,69,15,239,236 // pxor %xmm12,%xmm13 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,65,15,102,213 // pcmpgtd %xmm13,%xmm2 .byte 102,65,15,223,214 // pandn %xmm14,%xmm2 .byte 102,65,15,115,216,8 // psrldq $0x8,%xmm8 .byte 102,69,15,97,194 // punpcklwd %xmm10,%xmm8 .byte 102,69,15,219,200 // pand %xmm8,%xmm9 .byte 102,69,15,239,193 // pxor %xmm9,%xmm8 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,65,15,114,242,13 // pslld $0xd,%xmm10 .byte 102,69,15,235,209 // por %xmm9,%xmm10 .byte 102,69,15,254,211 // paddd %xmm11,%xmm10 .byte 102,69,15,239,196 // pxor %xmm12,%xmm8 .byte 102,65,15,102,216 // pcmpgtd %xmm8,%xmm3 .byte 102,65,15,223,218 // pandn %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_store_f16_sse2 .globl _sk_store_f16_sse2 FUNCTION(_sk_store_f16_sse2) _sk_store_f16_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 73,193,225,3 // shl $0x3,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,99,194 // movslq %edx,%rax .byte 102,68,15,111,21,33,75,0,0 // movdqa 0x4b21(%rip),%xmm10 # 9640 <_sk_clut_4D_sse2+0x2698> .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12 .byte 102,69,15,219,226 // pand %xmm10,%xmm12 .byte 102,68,15,111,232 // movdqa %xmm0,%xmm13 .byte 102,69,15,239,236 // pxor %xmm12,%xmm13 .byte 102,68,15,111,13,20,75,0,0 // movdqa 0x4b14(%rip),%xmm9 # 9650 <_sk_clut_4D_sse2+0x26a8> .byte 102,65,15,114,212,16 // psrld $0x10,%xmm12 .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 .byte 102,69,15,102,197 // pcmpgtd %xmm13,%xmm8 .byte 102,65,15,114,213,13 // psrld $0xd,%xmm13 .byte 102,68,15,111,29,5,75,0,0 // movdqa 0x4b05(%rip),%xmm11 # 9660 <_sk_clut_4D_sse2+0x26b8> .byte 102,69,15,235,227 // por %xmm11,%xmm12 .byte 102,69,15,254,229 // paddd %xmm13,%xmm12 .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12 .byte 102,69,15,223,196 // pandn %xmm12,%xmm8 .byte 102,69,15,107,192 // packssdw %xmm8,%xmm8 .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12 .byte 102,69,15,219,226 // pand %xmm10,%xmm12 .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14 .byte 102,69,15,239,244 // pxor %xmm12,%xmm14 .byte 102,65,15,114,212,16 // psrld $0x10,%xmm12 .byte 102,69,15,111,233 // movdqa %xmm9,%xmm13 .byte 102,69,15,102,238 // pcmpgtd %xmm14,%xmm13 .byte 102,65,15,114,214,13 // psrld $0xd,%xmm14 .byte 102,69,15,235,227 // por %xmm11,%xmm12 .byte 102,69,15,254,230 // paddd %xmm14,%xmm12 .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12 .byte 102,69,15,223,236 // pandn %xmm12,%xmm13 .byte 102,69,15,107,237 // packssdw %xmm13,%xmm13 .byte 102,68,15,111,242 // movdqa %xmm2,%xmm14 .byte 102,69,15,219,242 // pand %xmm10,%xmm14 .byte 102,68,15,111,250 // movdqa %xmm2,%xmm15 .byte 102,69,15,239,254 // pxor %xmm14,%xmm15 .byte 102,65,15,114,214,16 // psrld $0x10,%xmm14 .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12 .byte 102,69,15,102,231 // pcmpgtd %xmm15,%xmm12 .byte 102,65,15,114,215,13 // psrld $0xd,%xmm15 .byte 102,69,15,235,243 // por %xmm11,%xmm14 .byte 102,69,15,254,247 // paddd %xmm15,%xmm14 .byte 102,65,15,114,246,16 // pslld $0x10,%xmm14 .byte 102,65,15,114,230,16 // psrad $0x10,%xmm14 .byte 102,69,15,223,230 // pandn %xmm14,%xmm12 .byte 102,69,15,107,228 // packssdw %xmm12,%xmm12 .byte 102,68,15,219,211 // pand %xmm3,%xmm10 .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14 .byte 102,69,15,239,242 // pxor %xmm10,%xmm14 .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10 .byte 102,69,15,102,206 // pcmpgtd %xmm14,%xmm9 .byte 102,65,15,114,214,13 // psrld $0xd,%xmm14 .byte 102,69,15,235,211 // por %xmm11,%xmm10 .byte 102,69,15,254,214 // paddd %xmm14,%xmm10 .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10 .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10 .byte 102,69,15,223,202 // pandn %xmm10,%xmm9 .byte 102,69,15,107,201 // packssdw %xmm9,%xmm9 .byte 102,69,15,97,197 // punpcklwd %xmm13,%xmm8 .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12 .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9 .byte 77,133,192 // test %r8,%r8 .byte 117,21 // jne 4c7d <_sk_store_f16_sse2+0x17e> .byte 69,15,17,12,193 // movups %xmm9,(%r9,%rax,8) .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8 .byte 243,69,15,127,68,193,16 // movdqu %xmm8,0x10(%r9,%rax,8) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,214,12,193 // movq %xmm9,(%r9,%rax,8) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 4c79 <_sk_store_f16_sse2+0x17a> .byte 102,69,15,23,76,193,8 // movhpd %xmm9,0x8(%r9,%rax,8) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 4c79 <_sk_store_f16_sse2+0x17a> .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8 .byte 102,69,15,214,68,193,16 // movq %xmm8,0x10(%r9,%rax,8) .byte 235,213 // jmp 4c79 <_sk_store_f16_sse2+0x17a> HIDDEN _sk_load_u16_be_sse2 .globl _sk_load_u16_be_sse2 FUNCTION(_sk_load_u16_be_sse2) _sk_load_u16_be_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,190,0,0,0 // jne 4d89 <_sk_load_u16_be_sse2+0xe5> .byte 102,65,15,16,4,65 // movupd (%r9,%rax,2),%xmm0 .byte 102,65,15,16,76,65,16 // movupd 0x10(%r9,%rax,2),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 .byte 68,15,40,5,84,73,0,0 // movaps 0x4954(%rip),%xmm8 # 9670 <_sk_clut_4D_sse2+0x26c8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,235,217 // por %xmm1,%xmm3 .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3 .byte 15,91,203 // cvtdq2ps %xmm3,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10 .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,65,15,235,210 // por %xmm10,%xmm2 .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10 .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,65,15,235,218 // por %xmm10,%xmm3 .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,65 // movsd (%r9,%rax,2),%xmm0 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,17 // jne 4da6 <_sk_load_u16_be_sse2+0x102> .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 233,50,255,255,255 // jmpq 4cd8 <_sk_load_u16_be_sse2+0x34> .byte 102,65,15,22,68,65,8 // movhpd 0x8(%r9,%rax,2),%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 15,130,29,255,255,255 // jb 4cd8 <_sk_load_u16_be_sse2+0x34> .byte 242,65,15,16,76,65,16 // movsd 0x10(%r9,%rax,2),%xmm1 .byte 233,17,255,255,255 // jmpq 4cd8 <_sk_load_u16_be_sse2+0x34> HIDDEN _sk_load_rgb_u16_be_sse2 .globl _sk_load_rgb_u16_be_sse2 FUNCTION(_sk_load_rgb_u16_be_sse2) _sk_load_rgb_u16_be_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,202 // imul %r10,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 72,137,208 // mov %rdx,%rax .byte 72,193,224,32 // shl $0x20,%rax .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 77,133,192 // test %r8,%r8 .byte 15,133,175,0,0,0 // jne 4ea1 <_sk_load_rgb_u16_be_sse2+0xda> .byte 243,65,15,111,20,65 // movdqu (%r9,%rax,2),%xmm2 .byte 243,65,15,111,92,65,8 // movdqu 0x8(%r9,%rax,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,115,216,6 // psrldq $0x6,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,115,217,6 // psrldq $0x6,%xmm1 .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 .byte 68,15,40,13,42,72,0,0 // movaps 0x482a(%rip),%xmm9 # 9680 <_sk_clut_4D_sse2+0x26d8> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,235,217 // por %xmm1,%xmm3 .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3 .byte 15,91,203 // cvtdq2ps %xmm3,%xmm1 .byte 65,15,89,201 // mulps %xmm9,%xmm1 .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,113,243,8 // psllw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,235,211 // por %xmm3,%xmm2 .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,241,71,0,0 // movaps 0x47f1(%rip),%xmm3 # 9690 <_sk_clut_4D_sse2+0x26e8> .byte 255,224 // jmpq *%rax .byte 102,65,15,110,20,65 // movd (%r9,%rax,2),%xmm2 .byte 102,65,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%rax,2),%xmm2 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,13 // jne 4ec6 <_sk_load_rgb_u16_be_sse2+0xff> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 233,80,255,255,255 // jmpq 4e16 <_sk_load_rgb_u16_be_sse2+0x4f> .byte 102,65,15,110,68,65,6 // movd 0x6(%r9,%rax,2),%xmm0 .byte 102,65,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,24 // jb 4ef7 <_sk_load_rgb_u16_be_sse2+0x130> .byte 102,65,15,110,92,65,12 // movd 0xc(%r9,%rax,2),%xmm3 .byte 102,65,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%rax,2),%xmm3 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 233,31,255,255,255 // jmpq 4e16 <_sk_load_rgb_u16_be_sse2+0x4f> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 233,22,255,255,255 // jmpq 4e16 <_sk_load_rgb_u16_be_sse2+0x4f> HIDDEN _sk_store_u16_be_sse2 .globl _sk_store_u16_be_sse2 FUNCTION(_sk_store_u16_be_sse2) _sk_store_u16_be_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 77,1,201 // add %r9,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 68,15,40,21,122,71,0,0 // movaps 0x477a(%rip),%xmm10 # 96a0 <_sk_clut_4D_sse2+0x26f8> .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,89,194 // mulps %xmm10,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,69,15,107,192 // packssdw %xmm8,%xmm8 .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 69,15,89,202 // mulps %xmm10,%xmm9 .byte 102,69,15,91,217 // cvtps2dq %xmm9,%xmm11 .byte 102,65,15,114,243,16 // pslld $0x10,%xmm11 .byte 102,65,15,114,227,16 // psrad $0x10,%xmm11 .byte 102,69,15,107,219 // packssdw %xmm11,%xmm11 .byte 102,69,15,111,203 // movdqa %xmm11,%xmm9 .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11 .byte 102,69,15,235,217 // por %xmm9,%xmm11 .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 69,15,89,202 // mulps %xmm10,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9 .byte 102,69,15,107,201 // packssdw %xmm9,%xmm9 .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12 .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12 .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 .byte 102,69,15,235,204 // por %xmm12,%xmm9 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10 .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10 .byte 102,69,15,107,210 // packssdw %xmm10,%xmm10 .byte 102,69,15,111,226 // movdqa %xmm10,%xmm12 .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12 .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10 .byte 102,69,15,235,212 // por %xmm12,%xmm10 .byte 102,69,15,97,195 // punpcklwd %xmm11,%xmm8 .byte 102,69,15,97,202 // punpcklwd %xmm10,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10 .byte 77,133,192 // test %r8,%r8 .byte 117,21 // jne 5020 <_sk_store_u16_be_sse2+0x120> .byte 69,15,17,20,65 // movups %xmm10,(%r9,%rax,2) .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 .byte 243,69,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,214,20,65 // movq %xmm10,(%r9,%rax,2) .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,240 // je 501c <_sk_store_u16_be_sse2+0x11c> .byte 102,69,15,23,84,65,8 // movhpd %xmm10,0x8(%r9,%rax,2) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,227 // jb 501c <_sk_store_u16_be_sse2+0x11c> .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 .byte 102,69,15,214,68,65,16 // movq %xmm8,0x10(%r9,%rax,2) .byte 235,213 // jmp 501c <_sk_store_u16_be_sse2+0x11c> HIDDEN _sk_load_f32_sse2 .globl _sk_load_f32_sse2 FUNCTION(_sk_load_f32_sse2) _sk_load_f32_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,66 // jne 50b2 <_sk_load_f32_sse2+0x6b> .byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0 .byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3 .byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 65,15,20,201 // unpcklps %xmm9,%xmm1 .byte 68,15,21,192 // unpckhps %xmm0,%xmm8 .byte 65,15,21,217 // unpckhps %xmm9,%xmm3 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 15,18,202 // movhlps %xmm2,%xmm1 .byte 65,15,40,208 // movaps %xmm8,%xmm2 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 65,15,18,216 // movhlps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,8 // jne 50c4 <_sk_load_f32_sse2+0x7d> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 235,190 // jmp 5082 <_sk_load_f32_sse2+0x3b> .byte 65,15,16,68,129,16 // movups 0x10(%r9,%rax,4),%xmm0 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,8 // jb 50d8 <_sk_load_f32_sse2+0x91> .byte 65,15,16,92,129,32 // movups 0x20(%r9,%rax,4),%xmm3 .byte 235,170 // jmp 5082 <_sk_load_f32_sse2+0x3b> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 235,165 // jmp 5082 <_sk_load_f32_sse2+0x3b> HIDDEN _sk_load_f32_dst_sse2 .globl _sk_load_f32_dst_sse2 FUNCTION(_sk_load_f32_dst_sse2) _sk_load_f32_dst_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 69,15,16,4,129 // movups (%r9,%rax,4),%xmm8 .byte 77,133,192 // test %r8,%r8 .byte 117,66 // jne 5148 <_sk_load_f32_dst_sse2+0x6b> .byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4 .byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7 .byte 69,15,16,76,129,48 // movups 0x30(%r9,%rax,4),%xmm9 .byte 65,15,40,240 // movaps %xmm8,%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 65,15,20,233 // unpcklps %xmm9,%xmm5 .byte 68,15,21,196 // unpckhps %xmm4,%xmm8 .byte 65,15,21,249 // unpckhps %xmm9,%xmm7 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4 .byte 15,18,238 // movhlps %xmm6,%xmm5 .byte 65,15,40,240 // movaps %xmm8,%xmm6 .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6 .byte 65,15,18,248 // movhlps %xmm8,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 73,131,248,1 // cmp $0x1,%r8 .byte 117,8 // jne 515a <_sk_load_f32_dst_sse2+0x7d> .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 235,190 // jmp 5118 <_sk_load_f32_dst_sse2+0x3b> .byte 65,15,16,100,129,16 // movups 0x10(%r9,%rax,4),%xmm4 .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,8 // jb 516e <_sk_load_f32_dst_sse2+0x91> .byte 65,15,16,124,129,32 // movups 0x20(%r9,%rax,4),%xmm7 .byte 235,170 // jmp 5118 <_sk_load_f32_dst_sse2+0x3b> .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 235,165 // jmp 5118 <_sk_load_f32_dst_sse2+0x3b> HIDDEN _sk_store_f32_sse2 .globl _sk_store_f32_sse2 FUNCTION(_sk_store_f32_sse2) _sk_store_f32_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,141,20,149,0,0,0,0 // lea 0x0(,%rdx,4),%r10d .byte 76,99,88,8 // movslq 0x8(%rax),%r11 .byte 76,99,201 // movslq %ecx,%r9 .byte 77,15,175,203 // imul %r11,%r9 .byte 73,193,225,2 // shl $0x2,%r9 .byte 76,3,8 // add (%rax),%r9 .byte 73,99,194 // movslq %r10d,%rax .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,20,201 // unpcklps %xmm1,%xmm9 .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 68,15,20,195 // unpcklps %xmm3,%xmm8 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 68,15,21,209 // unpckhps %xmm1,%xmm10 .byte 68,15,40,218 // movaps %xmm2,%xmm11 .byte 68,15,21,219 // unpckhps %xmm3,%xmm11 .byte 69,15,40,225 // movaps %xmm9,%xmm12 .byte 102,69,15,20,224 // unpcklpd %xmm8,%xmm12 .byte 69,15,18,193 // movhlps %xmm9,%xmm8 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9 .byte 102,69,15,17,36,129 // movupd %xmm12,(%r9,%rax,4) .byte 77,133,192 // test %r8,%r8 .byte 117,29 // jne 51f0 <_sk_store_f32_sse2+0x7d> .byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10 .byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4) .byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4) .byte 102,69,15,17,84,129,48 // movupd %xmm10,0x30(%r9,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 73,131,248,1 // cmp $0x1,%r8 .byte 116,246 // je 51ec <_sk_store_f32_sse2+0x79> .byte 69,15,17,68,129,16 // movups %xmm8,0x10(%r9,%rax,4) .byte 73,131,248,3 // cmp $0x3,%r8 .byte 114,234 // jb 51ec <_sk_store_f32_sse2+0x79> .byte 102,69,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%rax,4) .byte 235,225 // jmp 51ec <_sk_store_f32_sse2+0x79> HIDDEN _sk_clamp_x_sse2 .globl _sk_clamp_x_sse2 FUNCTION(_sk_clamp_x_sse2) _sk_clamp_x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 68,15,93,192 // minps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_y_sse2 .globl _sk_clamp_y_sse2 FUNCTION(_sk_clamp_y_sse2) _sk_clamp_y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,193 // maxps %xmm1,%xmm8 .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 68,15,93,193 // minps %xmm1,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_sse2 .globl _sk_repeat_x_sse2 FUNCTION(_sk_repeat_x_sse2) _sk_repeat_x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8 .byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11 .byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10 .byte 68,15,84,21,39,68,0,0 // andps 0x4427(%rip),%xmm10 # 96b0 <_sk_clut_4D_sse2+0x2708> .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,89,217 // mulps %xmm9,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 68,15,93,192 // minps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_y_sse2 .globl _sk_repeat_y_sse2 FUNCTION(_sk_repeat_y_sse2) _sk_repeat_y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8 .byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11 .byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10 .byte 68,15,84,21,221,67,0,0 // andps 0x43dd(%rip),%xmm10 # 96c0 <_sk_clut_4D_sse2+0x2718> .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,89,217 // mulps %xmm9,%xmm11 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 68,15,95,193 // maxps %xmm1,%xmm8 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 68,15,93,193 // minps %xmm1,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_sse2 .globl _sk_mirror_x_sse2 FUNCTION(_sk_mirror_x_sse2) _sk_mirror_x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 243,69,15,88,210 // addss %xmm10,%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,89,29,210,72,0,0 // mulss 0x48d2(%rip),%xmm11 # 9c10 <_sk_clut_4D_sse2+0x2c68> .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,216 // mulps %xmm0,%xmm11 .byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8 .byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12 .byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11 .byte 68,15,84,29,115,67,0,0 // andps 0x4373(%rip),%xmm11 # 96d0 <_sk_clut_4D_sse2+0x2728> .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 65,15,92,196 // subps %xmm12,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 69,15,95,194 // maxps %xmm10,%xmm8 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 68,15,93,192 // minps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_y_sse2 .globl _sk_mirror_y_sse2 FUNCTION(_sk_mirror_y_sse2) _sk_mirror_y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11 .byte 69,15,40,202 // movaps %xmm10,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,92,201 // subps %xmm9,%xmm1 .byte 243,69,15,88,210 // addss %xmm10,%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,89,29,81,72,0,0 // mulss 0x4851(%rip),%xmm11 # 9c14 <_sk_clut_4D_sse2+0x2c6c> .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8 .byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12 .byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11 .byte 68,15,84,29,254,66,0,0 // andps 0x42fe(%rip),%xmm11 # 96e0 <_sk_clut_4D_sse2+0x2738> .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 69,15,89,226 // mulps %xmm10,%xmm12 .byte 65,15,92,204 // subps %xmm12,%xmm1 .byte 65,15,92,201 // subps %xmm9,%xmm1 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 68,15,92,209 // subps %xmm1,%xmm10 .byte 68,15,84,209 // andps %xmm1,%xmm10 .byte 69,15,95,194 // maxps %xmm10,%xmm8 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 68,15,93,193 // minps %xmm1,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,200 // movaps %xmm8,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_clamp_x_1_sse2 .globl _sk_clamp_x_1_sse2 FUNCTION(_sk_clamp_x_1_sse2) _sk_clamp_x_1_sse2: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 .byte 68,15,93,5,197,66,0,0 // minps 0x42c5(%rip),%xmm8 # 96f0 <_sk_clut_4D_sse2+0x2748> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_repeat_x_1_sse2 .globl _sk_repeat_x_1_sse2 FUNCTION(_sk_repeat_x_1_sse2) _sk_repeat_x_1_sse2: .byte 243,68,15,91,192 // cvttps2dq %xmm0,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9 .byte 68,15,84,13,179,66,0,0 // andps 0x42b3(%rip),%xmm9 # 9700 <_sk_clut_4D_sse2+0x2758> .byte 69,15,92,193 // subps %xmm9,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mirror_x_1_sse2 .globl _sk_mirror_x_1_sse2 FUNCTION(_sk_mirror_x_1_sse2) _sk_mirror_x_1_sse2: .byte 68,15,40,5,175,66,0,0 // movaps 0x42af(%rip),%xmm8 # 9710 <_sk_clut_4D_sse2+0x2768> .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,13,179,66,0,0 // movaps 0x42b3(%rip),%xmm9 # 9720 <_sk_clut_4D_sse2+0x2778> .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9 .byte 68,15,84,13,169,66,0,0 // andps 0x42a9(%rip),%xmm9 # 9730 <_sk_clut_4D_sse2+0x2788> .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,92,209 // subps %xmm9,%xmm10 .byte 69,15,88,210 // addps %xmm10,%xmm10 .byte 65,15,92,194 // subps %xmm10,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,92,216 // subps %xmm0,%xmm11 .byte 65,15,84,195 // andps %xmm11,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_luminance_to_alpha_sse2 .globl _sk_luminance_to_alpha_sse2 FUNCTION(_sk_luminance_to_alpha_sse2) _sk_luminance_to_alpha_sse2: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,89,5,143,66,0,0 // mulps 0x428f(%rip),%xmm0 # 9740 <_sk_clut_4D_sse2+0x2798> .byte 15,89,13,152,66,0,0 // mulps 0x4298(%rip),%xmm1 # 9750 <_sk_clut_4D_sse2+0x27a8> .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,89,29,158,66,0,0 // mulps 0x429e(%rip),%xmm3 # 9760 <_sk_clut_4D_sse2+0x27b8> .byte 15,88,217 // addps %xmm1,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_translate_sse2 .globl _sk_matrix_translate_sse2 FUNCTION(_sk_matrix_translate_sse2) _sk_matrix_translate_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_scale_translate_sse2 .globl _sk_matrix_scale_translate_sse2 FUNCTION(_sk_matrix_scale_translate_sse2) _sk_matrix_scale_translate_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,8 // movss 0x8(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 243,68,15,16,8 // movss (%rax),%xmm9 .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_2x3_sse2 .globl _sk_matrix_2x3_sse2 FUNCTION(_sk_matrix_2x3_sse2) _sk_matrix_2x3_sse2: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_3x4_sse2 .globl _sk_matrix_3x4_sse2 FUNCTION(_sk_matrix_3x4_sse2) _sk_matrix_3x4_sse2: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,36 // movss 0x24(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 68,15,89,226 // mulps %xmm2,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,217 // mulps %xmm9,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x5_sse2 .globl _sk_matrix_4x5_sse2 FUNCTION(_sk_matrix_4x5_sse2) _sk_matrix_4x5_sse2: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,32 // movss 0x20(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,48 // movss 0x30(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,64 // movss 0x40(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,68,15,16,80,20 // movss 0x14(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,36 // movss 0x24(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,52 // movss 0x34(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,68 // movss 0x44(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 68,15,89,227 // mulps %xmm3,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,56 // movss 0x38(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 243,68,15,16,112,72 // movss 0x48(%rax),%xmm14 .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 69,15,88,238 // addps %xmm14,%xmm13 .byte 68,15,89,226 // mulps %xmm2,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,217 // mulps %xmm9,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 243,68,15,16,88,12 // movss 0xc(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,28 // movss 0x1c(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13 .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13 .byte 243,68,15,16,112,60 // movss 0x3c(%rax),%xmm14 .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14 .byte 243,68,15,16,120,76 // movss 0x4c(%rax),%xmm15 .byte 69,15,198,255,0 // shufps $0x0,%xmm15,%xmm15 .byte 68,15,89,243 // mulps %xmm3,%xmm14 .byte 69,15,88,247 // addps %xmm15,%xmm14 .byte 68,15,89,234 // mulps %xmm2,%xmm13 .byte 69,15,88,238 // addps %xmm14,%xmm13 .byte 69,15,89,225 // mulps %xmm9,%xmm12 .byte 69,15,88,229 // addps %xmm13,%xmm12 .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,40,219 // movaps %xmm11,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_4x3_sse2 .globl _sk_matrix_4x3_sse2 FUNCTION(_sk_matrix_4x3_sse2) _sk_matrix_4x3_sse2: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,32 // movss 0x20(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,36 // movss 0x24(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,68,15,16,80,40 // movss 0x28(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 65,15,89,217 // mulps %xmm9,%xmm3 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,68,15,16,80,28 // movss 0x1c(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,44 // movss 0x2c(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_matrix_perspective_sse2 .globl _sk_matrix_perspective_sse2 FUNCTION(_sk_matrix_perspective_sse2) _sk_matrix_perspective_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 69,15,88,202 // addps %xmm10,%xmm9 .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12 .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 69,15,88,220 // addps %xmm12,%xmm11 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 65,15,83,202 // rcpps %xmm10,%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,201 // movaps %xmm9,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_gradient_sse2 .globl _sk_evenly_spaced_gradient_sse2 FUNCTION(_sk_evenly_spaced_gradient_sse2) _sk_evenly_spaced_gradient_sse2: .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,139,24 // mov (%rax),%rbx .byte 76,139,112,8 // mov 0x8(%rax),%r14 .byte 72,255,203 // dec %rbx .byte 120,7 // js 5962 <_sk_evenly_spaced_gradient_sse2+0x18> .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1 .byte 235,21 // jmp 5977 <_sk_evenly_spaced_gradient_sse2+0x2d> .byte 73,137,217 // mov %rbx,%r9 .byte 73,209,233 // shr %r9 .byte 131,227,1 // and $0x1,%ebx .byte 76,9,203 // or %r9,%rbx .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1 .byte 243,15,88,201 // addss %xmm1,%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,211 // movq %xmm2,%r11 .byte 69,137,217 // mov %r11d,%r9d .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 243,65,15,16,12,158 // movss (%r14,%rbx,4),%xmm1 .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 243,71,15,16,4,150 // movss (%r14,%r10,4),%xmm8 .byte 243,67,15,16,20,142 // movss (%r14,%r9,4),%xmm2 .byte 68,15,20,194 // unpcklps %xmm2,%xmm8 .byte 68,15,20,193 // unpcklps %xmm1,%xmm8 .byte 76,139,112,40 // mov 0x28(%rax),%r14 .byte 243,65,15,16,12,158 // movss (%r14,%rbx,4),%xmm1 .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 243,71,15,16,12,150 // movss (%r14,%r10,4),%xmm9 .byte 243,67,15,16,20,142 // movss (%r14,%r9,4),%xmm2 .byte 68,15,20,202 // unpcklps %xmm2,%xmm9 .byte 68,15,20,201 // unpcklps %xmm1,%xmm9 .byte 76,139,112,16 // mov 0x10(%rax),%r14 .byte 243,65,15,16,20,158 // movss (%r14,%rbx,4),%xmm2 .byte 243,67,15,16,12,158 // movss (%r14,%r11,4),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,67,15,16,12,150 // movss (%r14,%r10,4),%xmm1 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 76,139,112,48 // mov 0x30(%rax),%r14 .byte 243,65,15,16,20,158 // movss (%r14,%rbx,4),%xmm2 .byte 243,67,15,16,28,158 // movss (%r14,%r11,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 243,71,15,16,20,150 // movss (%r14,%r10,4),%xmm10 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 68,15,20,211 // unpcklps %xmm3,%xmm10 .byte 68,15,20,210 // unpcklps %xmm2,%xmm10 .byte 76,139,112,24 // mov 0x18(%rax),%r14 .byte 243,69,15,16,28,158 // movss (%r14,%rbx,4),%xmm11 .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2 .byte 68,15,20,218 // unpcklps %xmm2,%xmm11 .byte 243,67,15,16,20,150 // movss (%r14,%r10,4),%xmm2 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 65,15,20,211 // unpcklps %xmm11,%xmm2 .byte 76,139,112,56 // mov 0x38(%rax),%r14 .byte 243,69,15,16,36,158 // movss (%r14,%rbx,4),%xmm12 .byte 243,67,15,16,28,158 // movss (%r14,%r11,4),%xmm3 .byte 68,15,20,227 // unpcklps %xmm3,%xmm12 .byte 243,71,15,16,28,150 // movss (%r14,%r10,4),%xmm11 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 68,15,20,219 // unpcklps %xmm3,%xmm11 .byte 69,15,20,220 // unpcklps %xmm12,%xmm11 .byte 76,139,112,32 // mov 0x20(%rax),%r14 .byte 243,69,15,16,36,158 // movss (%r14,%rbx,4),%xmm12 .byte 243,67,15,16,28,158 // movss (%r14,%r11,4),%xmm3 .byte 68,15,20,227 // unpcklps %xmm3,%xmm12 .byte 243,67,15,16,28,150 // movss (%r14,%r10,4),%xmm3 .byte 243,71,15,16,44,142 // movss (%r14,%r9,4),%xmm13 .byte 65,15,20,221 // unpcklps %xmm13,%xmm3 .byte 65,15,20,220 // unpcklps %xmm12,%xmm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 243,68,15,16,36,152 // movss (%rax,%rbx,4),%xmm12 .byte 243,70,15,16,44,152 // movss (%rax,%r11,4),%xmm13 .byte 69,15,20,229 // unpcklps %xmm13,%xmm12 .byte 243,70,15,16,44,144 // movss (%rax,%r10,4),%xmm13 .byte 243,70,15,16,52,136 // movss (%rax,%r9,4),%xmm14 .byte 69,15,20,238 // unpcklps %xmm14,%xmm13 .byte 69,15,20,236 // unpcklps %xmm12,%xmm13 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 65,15,88,221 // addps %xmm13,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 255,224 // jmpq *%rax HIDDEN _sk_gauss_a_to_rgba_sse2 .globl _sk_gauss_a_to_rgba_sse2 FUNCTION(_sk_gauss_a_to_rgba_sse2) _sk_gauss_a_to_rgba_sse2: .byte 15,40,5,109,60,0,0 // movaps 0x3c6d(%rip),%xmm0 # 9770 <_sk_clut_4D_sse2+0x27c8> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,115,60,0,0 // addps 0x3c73(%rip),%xmm0 # 9780 <_sk_clut_4D_sse2+0x27d8> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,121,60,0,0 // addps 0x3c79(%rip),%xmm0 # 9790 <_sk_clut_4D_sse2+0x27e8> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,127,60,0,0 // addps 0x3c7f(%rip),%xmm0 # 97a0 <_sk_clut_4D_sse2+0x27f8> .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,5,133,60,0,0 // addps 0x3c85(%rip),%xmm0 # 97b0 <_sk_clut_4D_sse2+0x2808> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_gradient_sse2 .globl _sk_gradient_sse2 FUNCTION(_sk_gradient_sse2) _sk_gradient_sse2: .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,8 // mov (%rax),%r9 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,249,2 // cmp $0x2,%r9 .byte 114,50 // jb 5b7e <_sk_gradient_sse2+0x46> .byte 72,139,88,72 // mov 0x48(%rax),%rbx .byte 73,255,201 // dec %r9 .byte 72,131,195,4 // add $0x4,%rbx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,40,21,94,60,0,0 // movaps 0x3c5e(%rip),%xmm2 # 97c0 <_sk_clut_4D_sse2+0x2818> .byte 243,15,16,27 // movss (%rbx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,194,216,2 // cmpleps %xmm0,%xmm3 .byte 15,84,218 // andps %xmm2,%xmm3 .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 72,131,195,4 // add $0x4,%rbx .byte 73,255,201 // dec %r9 .byte 117,228 // jne 5b62 <_sk_gradient_sse2+0x2a> .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,211 // movq %xmm2,%r11 .byte 69,137,217 // mov %r11d,%r9d .byte 73,193,235,32 // shr $0x20,%r11 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 65,137,218 // mov %ebx,%r10d .byte 72,193,235,32 // shr $0x20,%rbx .byte 76,139,112,8 // mov 0x8(%rax),%r14 .byte 76,139,120,16 // mov 0x10(%rax),%r15 .byte 243,65,15,16,12,158 // movss (%r14,%rbx,4),%xmm1 .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 243,71,15,16,4,150 // movss (%r14,%r10,4),%xmm8 .byte 243,67,15,16,20,142 // movss (%r14,%r9,4),%xmm2 .byte 68,15,20,194 // unpcklps %xmm2,%xmm8 .byte 68,15,20,193 // unpcklps %xmm1,%xmm8 .byte 76,139,112,40 // mov 0x28(%rax),%r14 .byte 243,65,15,16,12,158 // movss (%r14,%rbx,4),%xmm1 .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 243,71,15,16,12,150 // movss (%r14,%r10,4),%xmm9 .byte 243,67,15,16,20,142 // movss (%r14,%r9,4),%xmm2 .byte 68,15,20,202 // unpcklps %xmm2,%xmm9 .byte 68,15,20,201 // unpcklps %xmm1,%xmm9 .byte 243,65,15,16,20,159 // movss (%r15,%rbx,4),%xmm2 .byte 243,67,15,16,12,159 // movss (%r15,%r11,4),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,67,15,16,12,151 // movss (%r15,%r10,4),%xmm1 .byte 243,67,15,16,28,143 // movss (%r15,%r9,4),%xmm3 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 76,139,112,48 // mov 0x30(%rax),%r14 .byte 243,65,15,16,20,158 // movss (%r14,%rbx,4),%xmm2 .byte 243,67,15,16,28,158 // movss (%r14,%r11,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 243,71,15,16,20,150 // movss (%r14,%r10,4),%xmm10 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 68,15,20,211 // unpcklps %xmm3,%xmm10 .byte 68,15,20,210 // unpcklps %xmm2,%xmm10 .byte 76,139,112,24 // mov 0x18(%rax),%r14 .byte 243,69,15,16,28,158 // movss (%r14,%rbx,4),%xmm11 .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2 .byte 68,15,20,218 // unpcklps %xmm2,%xmm11 .byte 243,67,15,16,20,150 // movss (%r14,%r10,4),%xmm2 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 65,15,20,211 // unpcklps %xmm11,%xmm2 .byte 76,139,112,56 // mov 0x38(%rax),%r14 .byte 243,69,15,16,36,158 // movss (%r14,%rbx,4),%xmm12 .byte 243,67,15,16,28,158 // movss (%r14,%r11,4),%xmm3 .byte 68,15,20,227 // unpcklps %xmm3,%xmm12 .byte 243,71,15,16,28,150 // movss (%r14,%r10,4),%xmm11 .byte 243,67,15,16,28,142 // movss (%r14,%r9,4),%xmm3 .byte 68,15,20,219 // unpcklps %xmm3,%xmm11 .byte 69,15,20,220 // unpcklps %xmm12,%xmm11 .byte 76,139,112,32 // mov 0x20(%rax),%r14 .byte 243,69,15,16,36,158 // movss (%r14,%rbx,4),%xmm12 .byte 243,67,15,16,28,158 // movss (%r14,%r11,4),%xmm3 .byte 68,15,20,227 // unpcklps %xmm3,%xmm12 .byte 243,67,15,16,28,150 // movss (%r14,%r10,4),%xmm3 .byte 243,71,15,16,44,142 // movss (%r14,%r9,4),%xmm13 .byte 65,15,20,221 // unpcklps %xmm13,%xmm3 .byte 65,15,20,220 // unpcklps %xmm12,%xmm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 243,68,15,16,36,152 // movss (%rax,%rbx,4),%xmm12 .byte 243,70,15,16,44,152 // movss (%rax,%r11,4),%xmm13 .byte 69,15,20,229 // unpcklps %xmm13,%xmm12 .byte 243,70,15,16,44,144 // movss (%rax,%r10,4),%xmm13 .byte 243,70,15,16,52,136 // movss (%rax,%r9,4),%xmm14 .byte 69,15,20,238 // unpcklps %xmm14,%xmm13 .byte 69,15,20,236 // unpcklps %xmm12,%xmm13 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 65,15,88,221 // addps %xmm13,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 255,224 // jmpq *%rax HIDDEN _sk_evenly_spaced_2_stop_gradient_sse2 .globl _sk_evenly_spaced_2_stop_gradient_sse2 FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2) _sk_evenly_spaced_2_stop_gradient_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,68,15,16,72,28 // movss 0x1c(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 65,15,89,216 // mulps %xmm8,%xmm3 .byte 65,15,88,217 // addps %xmm9,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_unit_angle_sse2 .globl _sk_xy_to_unit_angle_sse2 FUNCTION(_sk_xy_to_unit_angle_sse2) _sk_xy_to_unit_angle_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,84,200 // andps %xmm8,%xmm9 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 68,15,92,209 // subps %xmm1,%xmm10 .byte 68,15,84,209 // andps %xmm1,%xmm10 .byte 69,15,40,217 // movaps %xmm9,%xmm11 .byte 69,15,93,218 // minps %xmm10,%xmm11 .byte 69,15,40,225 // movaps %xmm9,%xmm12 .byte 69,15,95,226 // maxps %xmm10,%xmm12 .byte 69,15,94,220 // divps %xmm12,%xmm11 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,40,45,31,58,0,0 // movaps 0x3a1f(%rip),%xmm13 # 97d0 <_sk_clut_4D_sse2+0x2828> .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 68,15,88,45,35,58,0,0 // addps 0x3a23(%rip),%xmm13 # 97e0 <_sk_clut_4D_sse2+0x2838> .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 68,15,88,45,39,58,0,0 // addps 0x3a27(%rip),%xmm13 # 97f0 <_sk_clut_4D_sse2+0x2848> .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 68,15,88,45,43,58,0,0 // addps 0x3a2b(%rip),%xmm13 # 9800 <_sk_clut_4D_sse2+0x2858> .byte 69,15,89,235 // mulps %xmm11,%xmm13 .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9 .byte 68,15,40,21,42,58,0,0 // movaps 0x3a2a(%rip),%xmm10 # 9810 <_sk_clut_4D_sse2+0x2868> .byte 69,15,92,213 // subps %xmm13,%xmm10 .byte 69,15,84,209 // andps %xmm9,%xmm10 .byte 69,15,85,205 // andnps %xmm13,%xmm9 .byte 69,15,86,202 // orps %xmm10,%xmm9 .byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8 .byte 68,15,40,21,29,58,0,0 // movaps 0x3a1d(%rip),%xmm10 # 9820 <_sk_clut_4D_sse2+0x2878> .byte 69,15,92,209 // subps %xmm9,%xmm10 .byte 69,15,84,208 // andps %xmm8,%xmm10 .byte 69,15,85,193 // andnps %xmm9,%xmm8 .byte 69,15,86,194 // orps %xmm10,%xmm8 .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9 .byte 68,15,40,21,12,58,0,0 // movaps 0x3a0c(%rip),%xmm10 # 9830 <_sk_clut_4D_sse2+0x2888> .byte 69,15,92,208 // subps %xmm8,%xmm10 .byte 69,15,84,209 // andps %xmm9,%xmm10 .byte 69,15,85,200 // andnps %xmm8,%xmm9 .byte 69,15,86,202 // orps %xmm10,%xmm9 .byte 65,15,194,193,7 // cmpordps %xmm9,%xmm0 .byte 65,15,84,193 // andps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_radius_sse2 .globl _sk_xy_to_radius_sse2 FUNCTION(_sk_xy_to_radius_sse2) _sk_xy_to_radius_sse2: .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,88,192 // addps %xmm0,%xmm8 .byte 65,15,81,192 // sqrtps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_max_sse2 .globl _sk_xy_to_2pt_conical_quadratic_max_sse2 FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_sse2) _sk_xy_to_2pt_conical_quadratic_max_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,32 // movss 0x20(%rax),%xmm10 .byte 243,68,15,16,64,36 // movss 0x24(%rax),%xmm8 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,40 // movss 0x28(%rax),%xmm11 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,13,179,57,0,0 // mulps 0x39b3(%rip),%xmm9 # 9840 <_sk_clut_4D_sse2+0x2898> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 68,15,89,21,158,57,0,0 // mulps 0x399e(%rip),%xmm10 # 9850 <_sk_clut_4D_sse2+0x28a8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,81,208 // sqrtps %xmm0,%xmm10 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 68,15,87,13,134,57,0,0 // xorps 0x3986(%rip),%xmm9 # 9860 <_sk_clut_4D_sse2+0x28b8> .byte 68,15,89,5,142,57,0,0 // mulps 0x398e(%rip),%xmm8 # 9870 <_sk_clut_4D_sse2+0x28c8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 65,15,95,193 // maxps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_quadratic_min_sse2 .globl _sk_xy_to_2pt_conical_quadratic_min_sse2 FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_sse2) _sk_xy_to_2pt_conical_quadratic_min_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,80,32 // movss 0x20(%rax),%xmm10 .byte 243,68,15,16,64,36 // movss 0x24(%rax),%xmm8 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 243,68,15,16,88,40 // movss 0x28(%rax),%xmm11 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,13,85,57,0,0 // mulps 0x3955(%rip),%xmm9 # 9880 <_sk_clut_4D_sse2+0x28d8> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 .byte 68,15,89,21,64,57,0,0 // mulps 0x3940(%rip),%xmm10 # 9890 <_sk_clut_4D_sse2+0x28e8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 68,15,81,208 // sqrtps %xmm0,%xmm10 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 68,15,87,13,40,57,0,0 // xorps 0x3928(%rip),%xmm9 # 98a0 <_sk_clut_4D_sse2+0x28f8> .byte 68,15,89,5,48,57,0,0 // mulps 0x3930(%rip),%xmm8 # 98b0 <_sk_clut_4D_sse2+0x2908> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 65,15,93,193 // minps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xy_to_2pt_conical_linear_sse2 .globl _sk_xy_to_2pt_conical_linear_sse2 FUNCTION(_sk_xy_to_2pt_conical_linear_sse2) _sk_xy_to_2pt_conical_linear_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,40 // movss 0x28(%rax),%xmm8 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 243,69,15,89,200 // mulss %xmm8,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 .byte 68,15,89,13,8,57,0,0 // mulps 0x3908(%rip),%xmm9 # 98c0 <_sk_clut_4D_sse2+0x2918> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 .byte 65,15,88,194 // addps %xmm10,%xmm0 .byte 243,69,15,89,192 // mulss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 15,87,5,244,56,0,0 // xorps 0x38f4(%rip),%xmm0 # 98d0 <_sk_clut_4D_sse2+0x2928> .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_mask_2pt_conical_degenerates_sse2 .globl _sk_mask_2pt_conical_degenerates_sse2 FUNCTION(_sk_mask_2pt_conical_degenerates_sse2) _sk_mask_2pt_conical_degenerates_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,64,40 // movss 0x28(%rax),%xmm8 .byte 243,68,15,16,72,44 // movss 0x2c(%rax),%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 69,15,194,208,7 // cmpordps %xmm8,%xmm10 .byte 69,15,194,193,2 // cmpleps %xmm9,%xmm8 .byte 69,15,84,194 // andps %xmm10,%xmm8 .byte 68,15,17,0 // movups %xmm8,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_apply_vector_mask_sse2 .globl _sk_apply_vector_mask_sse2 FUNCTION(_sk_apply_vector_mask_sse2) _sk_apply_vector_mask_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,16,0 // movups (%rax),%xmm8 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 65,15,84,200 // andps %xmm8,%xmm1 .byte 65,15,84,208 // andps %xmm8,%xmm2 .byte 65,15,84,216 // andps %xmm8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_save_xy_sse2 .globl _sk_save_xy_sse2 FUNCTION(_sk_save_xy_sse2) _sk_save_xy_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,154,56,0,0 // movaps 0x389a(%rip),%xmm8 # 98e0 <_sk_clut_4D_sse2+0x2938> .byte 15,17,0 // movups %xmm0,(%rax) .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 69,15,40,217 // movaps %xmm9,%xmm11 .byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11 .byte 68,15,40,37,133,56,0,0 // movaps 0x3885(%rip),%xmm12 # 98f0 <_sk_clut_4D_sse2+0x2948> .byte 69,15,84,220 // andps %xmm12,%xmm11 .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 243,69,15,91,208 // cvttps2dq %xmm8,%xmm10 .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11 .byte 69,15,84,220 // andps %xmm12,%xmm11 .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 69,15,92,194 // subps %xmm10,%xmm8 .byte 15,17,72,32 // movups %xmm1,0x20(%rax) .byte 68,15,17,72,64 // movups %xmm9,0x40(%rax) .byte 68,15,17,64,96 // movups %xmm8,0x60(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_accumulate_sse2 .globl _sk_accumulate_sse2 FUNCTION(_sk_accumulate_sse2) _sk_accumulate_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 .byte 68,15,16,136,160,0,0,0 // movups 0xa0(%rax),%xmm9 .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 65,15,88,224 // addps %xmm8,%xmm4 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,193 // mulps %xmm1,%xmm8 .byte 65,15,88,232 // addps %xmm8,%xmm5 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,89,194 // mulps %xmm2,%xmm8 .byte 65,15,88,240 // addps %xmm8,%xmm6 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 65,15,88,249 // addps %xmm9,%xmm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_nx_sse2 .globl _sk_bilinear_nx_sse2 FUNCTION(_sk_bilinear_nx_sse2) _sk_bilinear_nx_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,254,55,0,0 // addps 0x37fe(%rip),%xmm0 # 9900 <_sk_clut_4D_sse2+0x2958> .byte 68,15,40,13,6,56,0,0 // movaps 0x3806(%rip),%xmm9 # 9910 <_sk_clut_4D_sse2+0x2968> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_px_sse2 .globl _sk_bilinear_px_sse2 FUNCTION(_sk_bilinear_px_sse2) _sk_bilinear_px_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,245,55,0,0 // addps 0x37f5(%rip),%xmm0 # 9920 <_sk_clut_4D_sse2+0x2978> .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_ny_sse2 .globl _sk_bilinear_ny_sse2 FUNCTION(_sk_bilinear_ny_sse2) _sk_bilinear_ny_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,231,55,0,0 // addps 0x37e7(%rip),%xmm1 # 9930 <_sk_clut_4D_sse2+0x2988> .byte 68,15,40,13,239,55,0,0 // movaps 0x37ef(%rip),%xmm9 # 9940 <_sk_clut_4D_sse2+0x2998> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bilinear_py_sse2 .globl _sk_bilinear_py_sse2 FUNCTION(_sk_bilinear_py_sse2) _sk_bilinear_py_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,221,55,0,0 // addps 0x37dd(%rip),%xmm1 # 9950 <_sk_clut_4D_sse2+0x29a8> .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3x_sse2 .globl _sk_bicubic_n3x_sse2 FUNCTION(_sk_bicubic_n3x_sse2) _sk_bicubic_n3x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,208,55,0,0 // addps 0x37d0(%rip),%xmm0 # 9960 <_sk_clut_4D_sse2+0x29b8> .byte 68,15,40,13,216,55,0,0 // movaps 0x37d8(%rip),%xmm9 # 9970 <_sk_clut_4D_sse2+0x29c8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,89,13,212,55,0,0 // mulps 0x37d4(%rip),%xmm9 # 9980 <_sk_clut_4D_sse2+0x29d8> .byte 68,15,88,13,220,55,0,0 // addps 0x37dc(%rip),%xmm9 # 9990 <_sk_clut_4D_sse2+0x29e8> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1x_sse2 .globl _sk_bicubic_n1x_sse2 FUNCTION(_sk_bicubic_n1x_sse2) _sk_bicubic_n1x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,203,55,0,0 // addps 0x37cb(%rip),%xmm0 # 99a0 <_sk_clut_4D_sse2+0x29f8> .byte 68,15,40,13,211,55,0,0 // movaps 0x37d3(%rip),%xmm9 # 99b0 <_sk_clut_4D_sse2+0x2a08> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,40,5,215,55,0,0 // movaps 0x37d7(%rip),%xmm8 # 99c0 <_sk_clut_4D_sse2+0x2a18> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,219,55,0,0 // addps 0x37db(%rip),%xmm8 # 99d0 <_sk_clut_4D_sse2+0x2a28> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,223,55,0,0 // addps 0x37df(%rip),%xmm8 # 99e0 <_sk_clut_4D_sse2+0x2a38> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,227,55,0,0 // addps 0x37e3(%rip),%xmm8 # 99f0 <_sk_clut_4D_sse2+0x2a48> .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1x_sse2 .globl _sk_bicubic_p1x_sse2 FUNCTION(_sk_bicubic_p1x_sse2) _sk_bicubic_p1x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,221,55,0,0 // movaps 0x37dd(%rip),%xmm8 # 9a00 <_sk_clut_4D_sse2+0x2a58> .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 68,15,40,21,217,55,0,0 // movaps 0x37d9(%rip),%xmm10 # 9a10 <_sk_clut_4D_sse2+0x2a68> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,221,55,0,0 // addps 0x37dd(%rip),%xmm10 # 9a20 <_sk_clut_4D_sse2+0x2a78> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,217,55,0,0 // addps 0x37d9(%rip),%xmm10 # 9a30 <_sk_clut_4D_sse2+0x2a88> .byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3x_sse2 .globl _sk_bicubic_p3x_sse2 FUNCTION(_sk_bicubic_p3x_sse2) _sk_bicubic_p3x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8 .byte 15,88,5,204,55,0,0 // addps 0x37cc(%rip),%xmm0 # 9a40 <_sk_clut_4D_sse2+0x2a98> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 .byte 68,15,89,5,204,55,0,0 // mulps 0x37cc(%rip),%xmm8 # 9a50 <_sk_clut_4D_sse2+0x2aa8> .byte 68,15,88,5,212,55,0,0 // addps 0x37d4(%rip),%xmm8 # 9a60 <_sk_clut_4D_sse2+0x2ab8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n3y_sse2 .globl _sk_bicubic_n3y_sse2 FUNCTION(_sk_bicubic_n3y_sse2) _sk_bicubic_n3y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,194,55,0,0 // addps 0x37c2(%rip),%xmm1 # 9a70 <_sk_clut_4D_sse2+0x2ac8> .byte 68,15,40,13,202,55,0,0 // movaps 0x37ca(%rip),%xmm9 # 9a80 <_sk_clut_4D_sse2+0x2ad8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,89,13,198,55,0,0 // mulps 0x37c6(%rip),%xmm9 # 9a90 <_sk_clut_4D_sse2+0x2ae8> .byte 68,15,88,13,206,55,0,0 // addps 0x37ce(%rip),%xmm9 # 9aa0 <_sk_clut_4D_sse2+0x2af8> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_n1y_sse2 .globl _sk_bicubic_n1y_sse2 FUNCTION(_sk_bicubic_n1y_sse2) _sk_bicubic_n1y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,188,55,0,0 // addps 0x37bc(%rip),%xmm1 # 9ab0 <_sk_clut_4D_sse2+0x2b08> .byte 68,15,40,13,196,55,0,0 // movaps 0x37c4(%rip),%xmm9 # 9ac0 <_sk_clut_4D_sse2+0x2b18> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,40,5,200,55,0,0 // movaps 0x37c8(%rip),%xmm8 # 9ad0 <_sk_clut_4D_sse2+0x2b28> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,204,55,0,0 // addps 0x37cc(%rip),%xmm8 # 9ae0 <_sk_clut_4D_sse2+0x2b38> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,208,55,0,0 // addps 0x37d0(%rip),%xmm8 # 9af0 <_sk_clut_4D_sse2+0x2b48> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,88,5,212,55,0,0 // addps 0x37d4(%rip),%xmm8 # 9b00 <_sk_clut_4D_sse2+0x2b58> .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p1y_sse2 .globl _sk_bicubic_p1y_sse2 FUNCTION(_sk_bicubic_p1y_sse2) _sk_bicubic_p1y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,15,40,5,206,55,0,0 // movaps 0x37ce(%rip),%xmm8 # 9b10 <_sk_clut_4D_sse2+0x2b68> .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 68,15,40,21,201,55,0,0 // movaps 0x37c9(%rip),%xmm10 # 9b20 <_sk_clut_4D_sse2+0x2b78> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,205,55,0,0 // addps 0x37cd(%rip),%xmm10 # 9b30 <_sk_clut_4D_sse2+0x2b88> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,21,201,55,0,0 // addps 0x37c9(%rip),%xmm10 # 9b40 <_sk_clut_4D_sse2+0x2b98> .byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_bicubic_p3y_sse2 .globl _sk_bicubic_p3y_sse2 FUNCTION(_sk_bicubic_p3y_sse2) _sk_bicubic_p3y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,32 // movups 0x20(%rax),%xmm1 .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8 .byte 15,88,13,187,55,0,0 // addps 0x37bb(%rip),%xmm1 # 9b50 <_sk_clut_4D_sse2+0x2ba8> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 .byte 68,15,89,5,187,55,0,0 // mulps 0x37bb(%rip),%xmm8 # 9b60 <_sk_clut_4D_sse2+0x2bb8> .byte 68,15,88,5,195,55,0,0 // addps 0x37c3(%rip),%xmm8 # 9b70 <_sk_clut_4D_sse2+0x2bc8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_callback_sse2 .globl _sk_callback_sse2 FUNCTION(_sk_callback_sse2) _sk_callback_sse2: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,72 // sub $0x48,%rsp .byte 15,41,125,144 // movaps %xmm7,-0x70(%rbp) .byte 15,41,117,160 // movaps %xmm6,-0x60(%rbp) .byte 15,41,109,176 // movaps %xmm5,-0x50(%rbp) .byte 15,41,101,192 // movaps %xmm4,-0x40(%rbp) .byte 76,137,195 // mov %r8,%rbx .byte 72,137,77,208 // mov %rcx,-0x30(%rbp) .byte 73,137,215 // mov %rdx,%r15 .byte 73,137,252 // mov %rdi,%r12 .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,198 // mov %rax,%r14 .byte 73,137,245 // mov %rsi,%r13 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,21,193 // unpckhps %xmm1,%xmm0 .byte 15,21,211 // unpckhps %xmm3,%xmm2 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1 .byte 15,18,236 // movhlps %xmm4,%xmm5 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3 .byte 102,65,15,17,78,8 // movupd %xmm1,0x8(%r14) .byte 15,18,208 // movhlps %xmm0,%xmm2 .byte 65,15,17,110,24 // movups %xmm5,0x18(%r14) .byte 102,65,15,17,94,40 // movupd %xmm3,0x28(%r14) .byte 65,15,17,86,56 // movups %xmm2,0x38(%r14) .byte 72,133,219 // test %rbx,%rbx .byte 190,4,0,0,0 // mov $0x4,%esi .byte 15,69,243 // cmovne %ebx,%esi .byte 76,137,247 // mov %r14,%rdi .byte 65,255,22 // callq *(%r14) .byte 73,139,134,136,0,0,0 // mov 0x88(%r14),%rax .byte 15,16,32 // movups (%rax),%xmm4 .byte 15,16,64,16 // movups 0x10(%rax),%xmm0 .byte 15,16,88,32 // movups 0x20(%rax),%xmm3 .byte 15,16,80,48 // movups 0x30(%rax),%xmm2 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 15,21,224 // unpckhps %xmm0,%xmm4 .byte 15,21,218 // unpckhps %xmm2,%xmm3 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 15,18,205 // movhlps %xmm5,%xmm1 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 15,18,220 // movhlps %xmm4,%xmm3 .byte 76,137,238 // mov %r13,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,137,231 // mov %r12,%rdi .byte 76,137,250 // mov %r15,%rdx .byte 72,139,77,208 // mov -0x30(%rbp),%rcx .byte 73,137,216 // mov %rbx,%r8 .byte 15,40,101,192 // movaps -0x40(%rbp),%xmm4 .byte 15,40,109,176 // movaps -0x50(%rbp),%xmm5 .byte 15,40,117,160 // movaps -0x60(%rbp),%xmm6 .byte 15,40,125,144 // movaps -0x70(%rbp),%xmm7 .byte 72,131,196,72 // add $0x48,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_3D_sse2 .globl _sk_clut_3D_sse2 FUNCTION(_sk_clut_3D_sse2) _sk_clut_3D_sse2: .byte 83 // push %rbx .byte 72,131,236,48 // sub $0x30,%rsp .byte 15,41,124,36,32 // movaps %xmm7,0x20(%rsp) .byte 15,41,116,36,16 // movaps %xmm6,0x10(%rsp) .byte 15,41,44,36 // movaps %xmm5,(%rsp) .byte 15,41,100,36,240 // movaps %xmm4,-0x10(%rsp) .byte 15,41,92,36,224 // movaps %xmm3,-0x20(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 102,65,15,110,218 // movd %r10d,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 102,65,15,110,209 // movd %r9d,%xmm2 .byte 102,68,15,112,250,0 // pshufd $0x0,%xmm2,%xmm15 .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 102,65,15,110,218 // movd %r10d,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 68,15,91,211 // cvtdq2ps %xmm3,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 243,65,15,91,226 // cvttps2dq %xmm10,%xmm4 .byte 102,15,127,100,36,128 // movdqa %xmm4,-0x80(%rsp) .byte 68,15,41,84,36,144 // movaps %xmm10,-0x70(%rsp) .byte 102,15,112,204,245 // pshufd $0xf5,%xmm4,%xmm1 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,65,15,244,223 // pmuludq %xmm15,%xmm3 .byte 102,68,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm9 .byte 102,65,15,244,207 // pmuludq %xmm15,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9 .byte 102,65,15,110,201 // movd %r9d,%xmm1 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,112,209,0 // pshufd $0x0,%xmm1,%xmm2 .byte 68,139,72,8 // mov 0x8(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 102,65,15,110,201 // movd %r9d,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 68,15,91,233 // cvtdq2ps %xmm1,%xmm13 .byte 68,15,89,232 // mulps %xmm0,%xmm13 .byte 243,69,15,91,229 // cvttps2dq %xmm13,%xmm12 .byte 102,65,15,112,196,245 // pshufd $0xf5,%xmm12,%xmm0 .byte 102,65,15,111,204 // movdqa %xmm12,%xmm1 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,68,15,112,241,232 // pshufd $0xe8,%xmm1,%xmm14 .byte 102,68,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm8 .byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,68,15,98,240 // punpckldq %xmm0,%xmm14 .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0 .byte 102,15,127,68,36,176 // movdqa %xmm0,-0x50(%rsp) .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,41,100,36,208 // movaps %xmm4,-0x30(%rsp) .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3 .byte 102,15,254,216 // paddd %xmm0,%xmm3 .byte 102,65,15,111,198 // movdqa %xmm14,%xmm0 .byte 102,15,254,195 // paddd %xmm3,%xmm0 .byte 102,15,111,45,205,53,0,0 // movdqa 0x35cd(%rip),%xmm5 # 9b90 <_sk_clut_4D_sse2+0x2be8> .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,244,197 // pmuludq %xmm5,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,205 // pmuludq %xmm5,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,65,15,126,203 // movd %xmm1,%r11d .byte 72,139,24 // mov (%rax),%rbx .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,254,13,113,53,0,0 // paddd 0x3571(%rip),%xmm1 # 9ba0 <_sk_clut_4D_sse2+0x2bf8> .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 102,15,254,5,55,53,0,0 // paddd 0x3537(%rip),%xmm0 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,201 // movq %xmm1,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 15,40,45,190,52,0,0 // movaps 0x34be(%rip),%xmm5 # 9b80 <_sk_clut_4D_sse2+0x2bd8> .byte 15,88,229 // addps %xmm5,%xmm4 .byte 15,41,100,36,192 // movaps %xmm4,-0x40(%rsp) .byte 68,15,88,213 // addps %xmm5,%xmm10 .byte 65,15,88,237 // addps %xmm13,%xmm5 .byte 243,15,91,237 // cvttps2dq %xmm5,%xmm5 .byte 102,15,244,213 // pmuludq %xmm5,%xmm2 .byte 102,15,112,237,245 // pshufd $0xf5,%xmm5,%xmm5 .byte 102,65,15,244,232 // pmuludq %xmm8,%xmm5 .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0 .byte 102,15,112,213,232 // pshufd $0xe8,%xmm5,%xmm2 .byte 102,15,98,194 // punpckldq %xmm2,%xmm0 .byte 102,15,127,68,36,160 // movdqa %xmm0,-0x60(%rsp) .byte 102,15,254,216 // paddd %xmm0,%xmm3 .byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4 .byte 102,15,111,5,135,52,0,0 // movdqa 0x3487(%rip),%xmm0 # 9b90 <_sk_clut_4D_sse2+0x2be8> .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2 .byte 102,15,244,224 // pmuludq %xmm0,%xmm4 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,15,112,220,232 // pshufd $0xe8,%xmm4,%xmm3 .byte 102,15,98,211 // punpckldq %xmm3,%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,65,15,126,218 // movd %xmm3,%r10d .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,65,15,126,217 // movd %xmm3,%r9d .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,254,29,48,52,0,0 // paddd 0x3430(%rip),%xmm3 # 9ba0 <_sk_clut_4D_sse2+0x2bf8> .byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 102,15,254,21,246,51,0,0 // paddd 0x33f6(%rip),%xmm2 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0 .byte 68,15,92,232 // subps %xmm0,%xmm13 .byte 15,92,230 // subps %xmm6,%xmm4 .byte 65,15,89,229 // mulps %xmm13,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 65,15,89,221 // mulps %xmm13,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 15,92,209 // subps %xmm1,%xmm2 .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 243,65,15,91,194 // cvttps2dq %xmm10,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,65,15,244,199 // pmuludq %xmm15,%xmm0 .byte 102,65,15,244,207 // pmuludq %xmm15,%xmm1 .byte 102,68,15,112,224,232 // pshufd $0xe8,%xmm0,%xmm12 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,68,15,98,224 // punpckldq %xmm0,%xmm12 .byte 102,65,15,111,244 // movdqa %xmm12,%xmm6 .byte 102,15,254,116,36,176 // paddd -0x50(%rsp),%xmm6 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,65,15,254,198 // paddd %xmm14,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5 .byte 102,15,244,197 // pmuludq %xmm5,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,205 // pmuludq %xmm5,%xmm1 .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,68,15,16,4,131 // movss (%rbx,%rax,4),%xmm8 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 68,15,20,193 // unpcklps %xmm1,%xmm8 .byte 68,15,20,199 // unpcklps %xmm7,%xmm8 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,68,15,111,21,209,50,0,0 // movdqa 0x32d1(%rip),%xmm10 # 9ba0 <_sk_clut_4D_sse2+0x2bf8> .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 102,15,111,45,146,50,0,0 // movdqa 0x3292(%rip),%xmm5 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,254,197 // paddd %xmm5,%xmm0 .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,197 // unpcklps %xmm5,%xmm0 .byte 102,15,254,116,36,160 // paddd -0x60(%rsp),%xmm6 .byte 102,15,112,238,245 // pshufd $0xf5,%xmm6,%xmm5 .byte 102,65,15,111,251 // movdqa %xmm11,%xmm7 .byte 102,15,244,247 // pmuludq %xmm7,%xmm6 .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6 .byte 102,15,244,239 // pmuludq %xmm7,%xmm5 .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5 .byte 102,15,98,245 // punpckldq %xmm5,%xmm6 .byte 102,15,112,238,229 // pshufd $0xe5,%xmm6,%xmm5 .byte 102,65,15,126,234 // movd %xmm5,%r10d .byte 102,15,112,238,78 // pshufd $0x4e,%xmm6,%xmm5 .byte 102,65,15,126,233 // movd %xmm5,%r9d .byte 102,15,112,238,231 // pshufd $0xe7,%xmm6,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 102,15,126,240 // movd %xmm6,%eax .byte 243,68,15,16,60,131 // movss (%rbx,%rax,4),%xmm15 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 68,15,20,253 // unpcklps %xmm5,%xmm15 .byte 68,15,20,255 // unpcklps %xmm7,%xmm15 .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,65,15,254,234 // paddd %xmm10,%xmm5 .byte 102,15,112,253,78 // pshufd $0x4e,%xmm5,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,234 // movq %xmm5,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,60,155 // movss (%rbx,%r11,4),%xmm7 .byte 15,20,239 // unpcklps %xmm7,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 68,15,20,223 // unpcklps %xmm7,%xmm11 .byte 68,15,20,221 // unpcklps %xmm5,%xmm11 .byte 102,15,111,45,141,49,0,0 // movdqa 0x318d(%rip),%xmm5 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,254,245 // paddd %xmm5,%xmm6 .byte 102,15,111,253 // movdqa %xmm5,%xmm7 .byte 102,15,112,238,78 // pshufd $0x4e,%xmm6,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,242 // movq %xmm6,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,52,155 // movss (%rbx,%r11,4),%xmm6 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,20,131 // movss (%rbx,%rax,4),%xmm10 .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 68,15,20,214 // unpcklps %xmm6,%xmm10 .byte 68,15,20,213 // unpcklps %xmm5,%xmm10 .byte 69,15,92,248 // subps %xmm8,%xmm15 .byte 69,15,89,253 // mulps %xmm13,%xmm15 .byte 69,15,88,248 // addps %xmm8,%xmm15 .byte 68,15,92,217 // subps %xmm1,%xmm11 .byte 69,15,89,221 // mulps %xmm13,%xmm11 .byte 68,15,88,217 // addps %xmm1,%xmm11 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 69,15,89,213 // mulps %xmm13,%xmm10 .byte 68,15,88,208 // addps %xmm0,%xmm10 .byte 15,91,68,36,128 // cvtdq2ps -0x80(%rsp),%xmm0 .byte 15,40,76,36,144 // movaps -0x70(%rsp),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,41,76,36,144 // movaps %xmm1,-0x70(%rsp) .byte 68,15,92,252 // subps %xmm4,%xmm15 .byte 68,15,89,249 // mulps %xmm1,%xmm15 .byte 68,15,88,252 // addps %xmm4,%xmm15 .byte 68,15,92,219 // subps %xmm3,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 68,15,88,219 // addps %xmm3,%xmm11 .byte 68,15,92,210 // subps %xmm2,%xmm10 .byte 68,15,89,209 // mulps %xmm1,%xmm10 .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 243,15,91,68,36,192 // cvttps2dq -0x40(%rsp),%xmm0 .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp) .byte 102,68,15,254,200 // paddd %xmm0,%xmm9 .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1 .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 .byte 102,15,111,5,158,48,0,0 // movdqa 0x309e(%rip),%xmm0 # 9b90 <_sk_clut_4D_sse2+0x2be8> .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3 .byte 102,15,244,208 // pmuludq %xmm0,%xmm2 .byte 102,15,111,240 // movdqa %xmm0,%xmm6 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,203,231 // pshufd $0xe7,%xmm3,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,111,5,72,48,0,0 // movdqa 0x3048(%rip),%xmm0 # 9ba0 <_sk_clut_4D_sse2+0x2bf8> .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 102,15,254,223 // paddd %xmm7,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 102,15,111,124,36,160 // movdqa -0x60(%rsp),%xmm7 .byte 102,68,15,254,207 // paddd %xmm7,%xmm9 .byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5 .byte 102,68,15,244,206 // pmuludq %xmm6,%xmm9 .byte 102,65,15,112,217,232 // pshufd $0xe8,%xmm9,%xmm3 .byte 102,15,244,238 // pmuludq %xmm6,%xmm5 .byte 102,68,15,111,206 // movdqa %xmm6,%xmm9 .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5 .byte 102,15,98,221 // punpckldq %xmm5,%xmm3 .byte 102,15,112,235,229 // pshufd $0xe5,%xmm3,%xmm5 .byte 102,65,15,126,234 // movd %xmm5,%r10d .byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5 .byte 102,65,15,126,233 // movd %xmm5,%r9d .byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,52,147 // movss (%rbx,%r10,4),%xmm6 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,68,15,16,4,131 // movss (%rbx,%rax,4),%xmm8 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 68,15,20,197 // unpcklps %xmm5,%xmm8 .byte 68,15,20,198 // unpcklps %xmm6,%xmm8 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,254,232 // paddd %xmm0,%xmm5 .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6 .byte 102,73,15,126,241 // movq %xmm6,%r9 .byte 102,73,15,126,234 // movq %xmm5,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,52,155 // movss (%rbx,%r11,4),%xmm6 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 102,15,254,29,9,47,0,0 // paddd 0x2f09(%rip),%xmm3 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0 .byte 102,73,15,126,193 // movq %xmm0,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 68,15,92,193 // subps %xmm1,%xmm8 .byte 69,15,89,197 // mulps %xmm13,%xmm8 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 65,15,89,245 // mulps %xmm13,%xmm6 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 65,15,89,237 // mulps %xmm13,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 102,68,15,254,100,36,128 // paddd -0x80(%rsp),%xmm12 .byte 102,69,15,254,244 // paddd %xmm12,%xmm14 .byte 102,65,15,112,206,245 // pshufd $0xf5,%xmm14,%xmm1 .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2 .byte 102,68,15,244,242 // pmuludq %xmm2,%xmm14 .byte 102,65,15,112,198,232 // pshufd $0xe8,%xmm14,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,111,226 // movdqa %xmm2,%xmm4 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,68,15,16,12,131 // movss (%rbx,%rax,4),%xmm9 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 68,15,20,201 // unpcklps %xmm1,%xmm9 .byte 68,15,20,202 // unpcklps %xmm2,%xmm9 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,254,13,21,46,0,0 // paddd 0x2e15(%rip),%xmm1 # 9ba0 <_sk_clut_4D_sse2+0x2bf8> .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,209 // movq %xmm2,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,52,131 // movss (%rbx,%rax,4),%xmm14 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 68,15,20,242 // unpcklps %xmm2,%xmm14 .byte 68,15,20,241 // unpcklps %xmm1,%xmm14 .byte 102,15,254,5,216,45,0,0 // paddd 0x2dd8(%rip),%xmm0 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,201 // movq %xmm1,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 102,68,15,254,231 // paddd %xmm7,%xmm12 .byte 102,65,15,112,196,245 // pshufd $0xf5,%xmm12,%xmm0 .byte 102,68,15,244,228 // pmuludq %xmm4,%xmm12 .byte 102,15,244,196 // pmuludq %xmm4,%xmm0 .byte 102,65,15,112,212,232 // pshufd $0xe8,%xmm12,%xmm2 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,65,15,126,194 // movd %xmm0,%r10d .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,65,15,126,193 // movd %xmm0,%r9d .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,15,111,37,27,45,0,0 // movdqa 0x2d1b(%rip),%xmm4 # 9ba0 <_sk_clut_4D_sse2+0x2bf8> .byte 102,15,254,226 // paddd %xmm2,%xmm4 .byte 102,15,112,204,78 // pshufd $0x4e,%xmm4,%xmm1 .byte 102,73,15,126,201 // movq %xmm1,%r9 .byte 102,73,15,126,226 // movq %xmm4,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 102,15,254,21,221,44,0,0 // paddd 0x2cdd(%rip),%xmm2 # 9bb0 <_sk_clut_4D_sse2+0x2c08> .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 65,15,89,197 // mulps %xmm13,%xmm0 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 65,15,92,206 // subps %xmm14,%xmm1 .byte 65,15,89,205 // mulps %xmm13,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,91,92,36,176 // cvtdq2ps -0x50(%rsp),%xmm3 .byte 15,40,100,36,208 // movaps -0x30(%rsp),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 65,15,92,199 // subps %xmm15,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,92,210 // subps %xmm10,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,92,36,224 // movaps -0x20(%rsp),%xmm3 .byte 15,40,100,36,240 // movaps -0x10(%rsp),%xmm4 .byte 15,40,44,36 // movaps (%rsp),%xmm5 .byte 15,40,116,36,16 // movaps 0x10(%rsp),%xmm6 .byte 15,40,124,36,32 // movaps 0x20(%rsp),%xmm7 .byte 72,131,196,48 // add $0x30,%rsp .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax HIDDEN _sk_clut_4D_sse2 .globl _sk_clut_4D_sse2 FUNCTION(_sk_clut_4D_sse2) _sk_clut_4D_sse2: .byte 83 // push %rbx .byte 72,129,236,176,0,0,0 // sub $0xb0,%rsp .byte 15,41,188,36,160,0,0,0 // movaps %xmm7,0xa0(%rsp) .byte 15,41,180,36,144,0,0,0 // movaps %xmm6,0x90(%rsp) .byte 15,41,172,36,128,0,0,0 // movaps %xmm5,0x80(%rsp) .byte 15,41,100,36,112 // movaps %xmm4,0x70(%rsp) .byte 72,173 // lods %ds:(%rsi),%rax .byte 68,139,72,20 // mov 0x14(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 102,65,15,110,226 // movd %r10d,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 102,65,15,110,217 // movd %r9d,%xmm3 .byte 102,15,112,251,0 // pshufd $0x0,%xmm3,%xmm7 .byte 68,139,72,16 // mov 0x10(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 102,65,15,110,226 // movd %r10d,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6 .byte 102,15,127,116,36,224 // movdqa %xmm6,-0x20(%rsp) .byte 68,15,40,204 // movaps %xmm4,%xmm9 .byte 68,15,41,76,36,32 // movaps %xmm9,0x20(%rsp) .byte 102,15,112,214,245 // pshufd $0xf5,%xmm6,%xmm2 .byte 102,15,111,230 // movdqa %xmm6,%xmm4 .byte 102,15,127,124,36,208 // movdqa %xmm7,-0x30(%rsp) .byte 102,15,244,231 // pmuludq %xmm7,%xmm4 .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4 .byte 102,15,244,215 // pmuludq %xmm7,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,226 // punpckldq %xmm2,%xmm4 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,127,116,36,80 // movdqa %xmm6,0x50(%rsp) .byte 102,65,15,110,209 // movd %r9d,%xmm2 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,98,211 // punpckldq %xmm3,%xmm2 .byte 102,68,15,112,250,0 // pshufd $0x0,%xmm2,%xmm15 .byte 68,139,72,12 // mov 0xc(%rax),%r9d .byte 69,141,81,255 // lea -0x1(%r9),%r10d .byte 102,65,15,110,218 // movd %r10d,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 15,91,227 // cvtdq2ps %xmm3,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 243,15,91,220 // cvttps2dq %xmm4,%xmm3 .byte 68,15,40,220 // movaps %xmm4,%xmm11 .byte 68,15,41,92,36,144 // movaps %xmm11,-0x70(%rsp) .byte 102,15,127,92,36,192 // movdqa %xmm3,-0x40(%rsp) .byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1 .byte 102,65,15,244,223 // pmuludq %xmm15,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,65,15,112,231,245 // pshufd $0xf5,%xmm15,%xmm4 .byte 102,15,127,100,36,128 // movdqa %xmm4,-0x80(%rsp) .byte 102,15,244,204 // pmuludq %xmm4,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,127,92,36,16 // movdqa %xmm3,0x10(%rsp) .byte 102,65,15,110,201 // movd %r9d,%xmm1 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 68,139,72,8 // mov 0x8(%rax),%r9d .byte 65,255,201 // dec %r9d .byte 102,65,15,110,209 // movd %r9d,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 68,15,91,242 // cvtdq2ps %xmm2,%xmm14 .byte 68,15,89,240 // mulps %xmm0,%xmm14 .byte 102,15,112,193,0 // pshufd $0x0,%xmm1,%xmm0 .byte 243,69,15,91,230 // cvttps2dq %xmm14,%xmm12 .byte 102,65,15,111,204 // movdqa %xmm12,%xmm1 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,225,232 // pshufd $0xe8,%xmm1,%xmm4 .byte 102,65,15,112,204,245 // pshufd $0xf5,%xmm12,%xmm1 .byte 102,68,15,112,232,245 // pshufd $0xf5,%xmm0,%xmm13 .byte 102,65,15,244,205 // pmuludq %xmm13,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,225 // punpckldq %xmm1,%xmm4 .byte 102,15,127,100,36,160 // movdqa %xmm4,-0x60(%rsp) .byte 243,15,91,213 // cvttps2dq %xmm5,%xmm2 .byte 102,15,127,84,36,48 // movdqa %xmm2,0x30(%rsp) .byte 68,15,40,197 // movaps %xmm5,%xmm8 .byte 68,15,41,68,36,96 // movaps %xmm8,0x60(%rsp) .byte 102,15,111,206 // movdqa %xmm6,%xmm1 .byte 102,15,254,202 // paddd %xmm2,%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,254,209 // paddd %xmm1,%xmm2 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,15,254,218 // paddd %xmm2,%xmm3 .byte 102,68,15,111,21,119,42,0,0 // movdqa 0x2a77(%rip),%xmm10 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,15,112,235,245 // pshufd $0xf5,%xmm3,%xmm5 .byte 102,65,15,244,218 // pmuludq %xmm10,%xmm3 .byte 102,15,112,227,232 // pshufd $0xe8,%xmm3,%xmm4 .byte 102,65,15,244,234 // pmuludq %xmm10,%xmm5 .byte 102,15,112,221,232 // pshufd $0xe8,%xmm5,%xmm3 .byte 102,15,98,227 // punpckldq %xmm3,%xmm4 .byte 102,15,112,220,229 // pshufd $0xe5,%xmm4,%xmm3 .byte 102,65,15,126,217 // movd %xmm3,%r9d .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3 .byte 102,65,15,126,218 // movd %xmm3,%r10d .byte 102,15,112,220,231 // pshufd $0xe7,%xmm4,%xmm3 .byte 102,65,15,126,219 // movd %xmm3,%r11d .byte 72,139,24 // mov (%rax),%rbx .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,52,147 // movss (%rbx,%r10,4),%xmm6 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,254,45,25,42,0,0 // paddd 0x2a19(%rip),%xmm5 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6 .byte 102,73,15,126,241 // movq %xmm6,%r9 .byte 102,73,15,126,234 // movq %xmm5,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,52,155 // movss (%rbx,%r11,4),%xmm6 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,247 // unpcklps %xmm7,%xmm6 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 102,15,254,37,223,41,0,0 // paddd 0x29df(%rip),%xmm4 # 9bf0 <_sk_clut_4D_sse2+0x2c48> .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,226 // movq %xmm4,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,239 // unpcklps %xmm7,%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,40,61,102,41,0,0 // movaps 0x2966(%rip),%xmm7 # 9bc0 <_sk_clut_4D_sse2+0x2c18> .byte 68,15,88,199 // addps %xmm7,%xmm8 .byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp) .byte 68,15,88,207 // addps %xmm7,%xmm9 .byte 68,15,41,76,36,64 // movaps %xmm9,0x40(%rsp) .byte 69,15,40,195 // movaps %xmm11,%xmm8 .byte 68,15,88,199 // addps %xmm7,%xmm8 .byte 65,15,88,254 // addps %xmm14,%xmm7 .byte 243,15,91,255 // cvttps2dq %xmm7,%xmm7 .byte 102,15,244,199 // pmuludq %xmm7,%xmm0 .byte 102,15,112,255,245 // pshufd $0xf5,%xmm7,%xmm7 .byte 102,65,15,244,253 // pmuludq %xmm13,%xmm7 .byte 102,68,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm11 .byte 102,15,112,199,232 // pshufd $0xe8,%xmm7,%xmm0 .byte 102,68,15,98,216 // punpckldq %xmm0,%xmm11 .byte 102,65,15,254,211 // paddd %xmm11,%xmm2 .byte 102,68,15,127,28,36 // movdqa %xmm11,(%rsp) .byte 102,15,112,250,245 // pshufd $0xf5,%xmm2,%xmm7 .byte 102,65,15,244,210 // pmuludq %xmm10,%xmm2 .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0 .byte 102,65,15,244,250 // pmuludq %xmm10,%xmm7 .byte 102,15,112,215,232 // pshufd $0xe8,%xmm7,%xmm2 .byte 102,15,98,194 // punpckldq %xmm2,%xmm0 .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2 .byte 102,65,15,126,210 // movd %xmm2,%r10d .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,65,15,126,209 // movd %xmm2,%r9d .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,68,15,16,44,131 // movss (%rbx,%rax,4),%xmm13 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 68,15,20,234 // unpcklps %xmm2,%xmm13 .byte 68,15,20,239 // unpcklps %xmm7,%xmm13 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,254,21,205,40,0,0 // paddd 0x28cd(%rip),%xmm2 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,70,15,16,12,139 // movss (%rbx,%r9,4),%xmm9 .byte 65,15,20,209 // unpcklps %xmm9,%xmm2 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 102,15,254,5,146,40,0,0 // paddd 0x2892(%rip),%xmm0 # 9bf0 <_sk_clut_4D_sse2+0x2c48> .byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 15,20,248 // unpcklps %xmm0,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 65,15,91,228 // cvtdq2ps %xmm12,%xmm4 .byte 68,15,92,244 // subps %xmm4,%xmm14 .byte 68,15,92,235 // subps %xmm3,%xmm13 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,88,235 // addps %xmm3,%xmm13 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 65,15,89,214 // mulps %xmm14,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 69,15,40,206 // movaps %xmm14,%xmm9 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 243,65,15,91,216 // cvttps2dq %xmm8,%xmm3 .byte 102,68,15,244,251 // pmuludq %xmm3,%xmm15 .byte 102,15,112,219,245 // pshufd $0xf5,%xmm3,%xmm3 .byte 102,15,244,92,36,128 // pmuludq -0x80(%rsp),%xmm3 .byte 102,65,15,112,231,232 // pshufd $0xe8,%xmm15,%xmm4 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,98,227 // punpckldq %xmm3,%xmm4 .byte 102,15,127,100,36,128 // movdqa %xmm4,-0x80(%rsp) .byte 102,15,254,204 // paddd %xmm4,%xmm1 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,254,92,36,160 // paddd -0x60(%rsp),%xmm3 .byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4 .byte 102,68,15,111,53,190,39,0,0 // movdqa 0x27be(%rip),%xmm14 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,65,15,244,222 // pmuludq %xmm14,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,65,15,244,230 // pmuludq %xmm14,%xmm4 .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4 .byte 102,15,98,220 // punpckldq %xmm4,%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,65,15,126,226 // movd %xmm4,%r10d .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,65,15,126,225 // movd %xmm4,%r9d .byte 102,15,112,227,231 // pshufd $0xe7,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,68,15,16,36,131 // movss (%rbx,%rax,4),%xmm12 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 68,15,20,228 // unpcklps %xmm4,%xmm12 .byte 68,15,20,229 // unpcklps %xmm5,%xmm12 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,111,61,103,39,0,0 // movdqa 0x2767(%rip),%xmm7 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,254,231 // paddd %xmm7,%xmm4 .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,226 // movq %xmm4,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 102,68,15,111,5,40,39,0,0 // movdqa 0x2728(%rip),%xmm8 # 9bf0 <_sk_clut_4D_sse2+0x2c48> .byte 102,65,15,254,216 // paddd %xmm8,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 102,65,15,254,203 // paddd %xmm11,%xmm1 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,65,15,244,206 // pmuludq %xmm14,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,65,15,244,222 // pmuludq %xmm14,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3 .byte 102,65,15,126,218 // movd %xmm3,%r10d .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,65,15,126,217 // movd %xmm3,%r9d .byte 102,15,112,217,231 // pshufd $0xe7,%xmm1,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,68,15,16,60,131 // movss (%rbx,%rax,4),%xmm15 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 68,15,20,251 // unpcklps %xmm3,%xmm15 .byte 68,15,20,252 // unpcklps %xmm4,%xmm15 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,254,223 // paddd %xmm7,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,52,131 // movss (%rbx,%rax,4),%xmm14 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 68,15,20,247 // unpcklps %xmm7,%xmm14 .byte 68,15,20,244 // unpcklps %xmm4,%xmm14 .byte 102,65,15,254,200 // paddd %xmm8,%xmm1 .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,20,131 // movss (%rbx,%rax,4),%xmm10 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 68,15,20,215 // unpcklps %xmm7,%xmm10 .byte 68,15,20,209 // unpcklps %xmm1,%xmm10 .byte 69,15,92,252 // subps %xmm12,%xmm15 .byte 68,15,41,76,36,240 // movaps %xmm9,-0x10(%rsp) .byte 69,15,89,249 // mulps %xmm9,%xmm15 .byte 69,15,88,252 // addps %xmm12,%xmm15 .byte 68,15,92,246 // subps %xmm6,%xmm14 .byte 69,15,89,241 // mulps %xmm9,%xmm14 .byte 68,15,88,246 // addps %xmm6,%xmm14 .byte 68,15,92,213 // subps %xmm5,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,88,213 // addps %xmm5,%xmm10 .byte 15,91,76,36,192 // cvtdq2ps -0x40(%rsp),%xmm1 .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,41,92,36,144 // movaps %xmm3,-0x70(%rsp) .byte 69,15,92,253 // subps %xmm13,%xmm15 .byte 68,15,89,251 // mulps %xmm3,%xmm15 .byte 69,15,88,253 // addps %xmm13,%xmm15 .byte 68,15,92,242 // subps %xmm2,%xmm14 .byte 68,15,89,243 // mulps %xmm3,%xmm14 .byte 68,15,88,242 // addps %xmm2,%xmm14 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 68,15,89,211 // mulps %xmm3,%xmm10 .byte 68,15,88,208 // addps %xmm0,%xmm10 .byte 243,15,91,68,36,64 // cvttps2dq 0x40(%rsp),%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,84,36,208 // movdqa -0x30(%rsp),%xmm2 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,127,84,36,192 // movdqa %xmm2,-0x40(%rsp) .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11 .byte 102,68,15,254,92,36,48 // paddd 0x30(%rsp),%xmm11 .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0 .byte 102,15,254,68,36,16 // paddd 0x10(%rsp),%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,68,15,111,108,36,160 // movdqa -0x60(%rsp),%xmm13 .byte 102,65,15,254,205 // paddd %xmm13,%xmm1 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 .byte 102,15,111,29,4,37,0,0 // movdqa 0x2504(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,111,251 // movdqa %xmm3,%xmm7 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,65,15,126,210 // movd %xmm2,%r10d .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,65,15,126,209 // movd %xmm2,%r9d .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,68,15,16,12,131 // movss (%rbx,%rax,4),%xmm9 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 68,15,20,202 // unpcklps %xmm2,%xmm9 .byte 68,15,20,205 // unpcklps %xmm5,%xmm9 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,111,29,171,36,0,0 // movdqa 0x24ab(%rip),%xmm3 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12 .byte 102,65,15,254,204 // paddd %xmm12,%xmm1 .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 102,15,111,36,36 // movdqa (%rsp),%xmm4 .byte 102,15,254,196 // paddd %xmm4,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,244,199 // pmuludq %xmm7,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,207 // pmuludq %xmm7,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,68,15,16,4,131 // movss (%rbx,%rax,4),%xmm8 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 68,15,20,199 // unpcklps %xmm7,%xmm8 .byte 68,15,20,197 // unpcklps %xmm5,%xmm8 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,254,235 // paddd %xmm3,%xmm5 .byte 102,15,112,253,78 // pshufd $0x4e,%xmm5,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,234 // movq %xmm5,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,20,239 // unpcklps %xmm7,%xmm5 .byte 102,65,15,254,196 // paddd %xmm12,%xmm0 .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 69,15,92,193 // subps %xmm9,%xmm8 .byte 15,40,68,36,240 // movaps -0x10(%rsp),%xmm0 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 69,15,88,193 // addps %xmm9,%xmm8 .byte 15,92,234 // subps %xmm2,%xmm5 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 68,15,40,224 // movaps %xmm0,%xmm12 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 102,68,15,254,92,36,128 // paddd -0x80(%rsp),%xmm11 .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2 .byte 102,65,15,254,213 // paddd %xmm13,%xmm2 .byte 102,15,112,218,245 // pshufd $0xf5,%xmm2,%xmm3 .byte 102,15,111,5,204,34,0,0 // movdqa 0x22cc(%rip),%xmm0 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,15,244,208 // pmuludq %xmm0,%xmm2 .byte 102,15,112,250,232 // pshufd $0xe8,%xmm2,%xmm7 .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2 .byte 102,15,98,250 // punpckldq %xmm2,%xmm7 .byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2 .byte 102,65,15,126,210 // movd %xmm2,%r10d .byte 102,15,112,215,78 // pshufd $0x4e,%xmm7,%xmm2 .byte 102,65,15,126,209 // movd %xmm2,%r9d .byte 102,15,112,215,231 // pshufd $0xe7,%xmm7,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,68,15,16,12,131 // movss (%rbx,%rax,4),%xmm9 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 68,15,20,202 // unpcklps %xmm2,%xmm9 .byte 68,15,20,203 // unpcklps %xmm3,%xmm9 .byte 102,15,111,215 // movdqa %xmm7,%xmm2 .byte 102,15,111,5,119,34,0,0 // movdqa 0x2277(%rip),%xmm0 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 102,68,15,111,45,56,34,0,0 // movdqa 0x2238(%rip),%xmm13 # 9bf0 <_sk_clut_4D_sse2+0x2c48> .byte 102,65,15,254,253 // paddd %xmm13,%xmm7 .byte 102,15,112,215,78 // pshufd $0x4e,%xmm7,%xmm2 .byte 102,73,15,126,209 // movq %xmm2,%r9 .byte 102,73,15,126,250 // movq %xmm7,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 15,20,251 // unpcklps %xmm3,%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 102,68,15,254,220 // paddd %xmm4,%xmm11 .byte 102,65,15,112,219,245 // pshufd $0xf5,%xmm11,%xmm3 .byte 102,15,111,37,190,33,0,0 // movdqa 0x21be(%rip),%xmm4 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,68,15,244,220 // pmuludq %xmm4,%xmm11 .byte 102,65,15,112,211,232 // pshufd $0xe8,%xmm11,%xmm2 .byte 102,15,244,220 // pmuludq %xmm4,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,98,211 // punpckldq %xmm3,%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,65,15,126,218 // movd %xmm3,%r10d .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,65,15,126,217 // movd %xmm3,%r9d .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 65,15,20,219 // unpcklps %xmm11,%xmm3 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 68,15,20,220 // unpcklps %xmm4,%xmm11 .byte 68,15,20,219 // unpcklps %xmm3,%xmm11 .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,254,216 // paddd %xmm0,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 102,65,15,254,213 // paddd %xmm13,%xmm2 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,44,131 // movss (%rbx,%rax,4),%xmm13 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 68,15,20,235 // unpcklps %xmm3,%xmm13 .byte 68,15,20,234 // unpcklps %xmm2,%xmm13 .byte 69,15,92,217 // subps %xmm9,%xmm11 .byte 69,15,89,220 // mulps %xmm12,%xmm11 .byte 69,15,88,217 // addps %xmm9,%xmm11 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 65,15,89,196 // mulps %xmm12,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 68,15,92,239 // subps %xmm7,%xmm13 .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 68,15,88,239 // addps %xmm7,%xmm13 .byte 69,15,92,216 // subps %xmm8,%xmm11 .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3 .byte 68,15,89,219 // mulps %xmm3,%xmm11 .byte 69,15,88,216 // addps %xmm8,%xmm11 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 68,15,92,233 // subps %xmm1,%xmm13 .byte 68,15,89,235 // mulps %xmm3,%xmm13 .byte 68,15,88,233 // addps %xmm1,%xmm13 .byte 15,91,68,36,224 // cvtdq2ps -0x20(%rsp),%xmm0 .byte 15,40,76,36,32 // movaps 0x20(%rsp),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,41,76,36,32 // movaps %xmm1,0x20(%rsp) .byte 69,15,92,223 // subps %xmm15,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 .byte 69,15,88,223 // addps %xmm15,%xmm11 .byte 68,15,41,92,36,224 // movaps %xmm11,-0x20(%rsp) .byte 65,15,92,214 // subps %xmm14,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 65,15,88,214 // addps %xmm14,%xmm2 .byte 15,41,84,36,208 // movaps %xmm2,-0x30(%rsp) .byte 69,15,92,234 // subps %xmm10,%xmm13 .byte 68,15,89,233 // mulps %xmm1,%xmm13 .byte 69,15,88,234 // addps %xmm10,%xmm13 .byte 243,15,91,68,36,176 // cvttps2dq -0x50(%rsp),%xmm0 .byte 102,15,127,68,36,176 // movdqa %xmm0,-0x50(%rsp) .byte 102,15,111,76,36,80 // movdqa 0x50(%rsp),%xmm1 .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,111,68,36,16 // movdqa 0x10(%rsp),%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11 .byte 102,68,15,111,84,36,160 // movdqa -0x60(%rsp),%xmm10 .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1 .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 .byte 102,15,111,29,0,32,0,0 // movdqa 0x2000(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,65,15,126,210 // movd %xmm2,%r10d .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,65,15,126,209 // movd %xmm2,%r9d .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,111,61,169,31,0,0 // movdqa 0x1fa9(%rip),%xmm7 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,254,223 // paddd %xmm7,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 102,68,15,111,13,106,31,0,0 // movdqa 0x1f6a(%rip),%xmm9 # 9bf0 <_sk_clut_4D_sse2+0x2c48> .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 102,68,15,111,60,36 // movdqa (%rsp),%xmm15 .byte 102,65,15,254,199 // paddd %xmm15,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,65,15,244,198 // pmuludq %xmm14,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,65,15,244,206 // pmuludq %xmm14,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,254,239 // paddd %xmm7,%xmm5 .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6 .byte 102,73,15,126,241 // movq %xmm6,%r9 .byte 102,73,15,126,234 // movq %xmm5,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,239 // unpcklps %xmm7,%xmm5 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6 .byte 102,73,15,126,241 // movq %xmm6,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,4,155 // movss (%rbx,%r11,4),%xmm0 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 69,15,40,196 // movaps %xmm12,%xmm8 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 15,88,235 // addps %xmm3,%xmm5 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3 .byte 102,15,254,92,36,128 // paddd -0x80(%rsp),%xmm3 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11 .byte 102,65,15,254,210 // paddd %xmm10,%xmm2 .byte 102,15,112,218,245 // pshufd $0xf5,%xmm2,%xmm3 .byte 102,65,15,244,214 // pmuludq %xmm14,%xmm2 .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4 .byte 102,65,15,244,222 // pmuludq %xmm14,%xmm3 .byte 102,69,15,111,230 // movdqa %xmm14,%xmm12 .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2 .byte 102,15,98,226 // punpckldq %xmm2,%xmm4 .byte 102,15,112,212,229 // pshufd $0xe5,%xmm4,%xmm2 .byte 102,65,15,126,210 // movd %xmm2,%r10d .byte 102,15,112,212,78 // pshufd $0x4e,%xmm4,%xmm2 .byte 102,65,15,126,209 // movd %xmm2,%r9d .byte 102,15,112,212,231 // pshufd $0xe7,%xmm4,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,68,15,16,52,131 // movss (%rbx,%rax,4),%xmm14 .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 68,15,20,246 // unpcklps %xmm6,%xmm14 .byte 68,15,20,243 // unpcklps %xmm3,%xmm14 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,68,15,111,21,109,29,0,0 // movdqa 0x1d6d(%rip),%xmm10 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,65,15,254,218 // paddd %xmm10,%xmm3 .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6 .byte 102,73,15,126,241 // movq %xmm6,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,223 // unpcklps %xmm7,%xmm3 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 102,65,15,254,225 // paddd %xmm9,%xmm4 .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6 .byte 102,73,15,126,241 // movq %xmm6,%r9 .byte 102,73,15,126,226 // movq %xmm4,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,231 // unpcklps %xmm7,%xmm4 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2 .byte 102,65,15,254,215 // paddd %xmm15,%xmm2 .byte 102,15,112,250,245 // pshufd $0xf5,%xmm2,%xmm7 .byte 102,65,15,244,212 // pmuludq %xmm12,%xmm2 .byte 102,15,112,242,232 // pshufd $0xe8,%xmm2,%xmm6 .byte 102,65,15,244,252 // pmuludq %xmm12,%xmm7 .byte 102,15,112,255,232 // pshufd $0xe8,%xmm7,%xmm7 .byte 102,15,98,247 // punpckldq %xmm7,%xmm6 .byte 102,15,112,254,229 // pshufd $0xe5,%xmm6,%xmm7 .byte 102,65,15,126,250 // movd %xmm7,%r10d .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7 .byte 102,65,15,126,249 // movd %xmm7,%r9d .byte 102,15,112,254,231 // pshufd $0xe7,%xmm6,%xmm7 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 102,15,126,240 // movd %xmm6,%eax .byte 243,68,15,16,36,131 // movss (%rbx,%rax,4),%xmm12 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 68,15,20,231 // unpcklps %xmm7,%xmm12 .byte 68,15,20,226 // unpcklps %xmm2,%xmm12 .byte 102,15,111,214 // movdqa %xmm6,%xmm2 .byte 102,65,15,254,210 // paddd %xmm10,%xmm2 .byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,60,155 // movss (%rbx,%r11,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 68,15,20,223 // unpcklps %xmm7,%xmm11 .byte 68,15,20,218 // unpcklps %xmm2,%xmm11 .byte 102,65,15,254,241 // paddd %xmm9,%xmm6 .byte 102,15,112,214,78 // pshufd $0x4e,%xmm6,%xmm2 .byte 102,73,15,126,209 // movq %xmm2,%r9 .byte 102,73,15,126,242 // movq %xmm6,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,52,155 // movss (%rbx,%r11,4),%xmm6 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,20,131 // movss (%rbx,%rax,4),%xmm10 .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 68,15,20,214 // unpcklps %xmm6,%xmm10 .byte 68,15,20,210 // unpcklps %xmm2,%xmm10 .byte 69,15,92,230 // subps %xmm14,%xmm12 .byte 69,15,89,224 // mulps %xmm8,%xmm12 .byte 69,15,88,230 // addps %xmm14,%xmm12 .byte 68,15,92,219 // subps %xmm3,%xmm11 .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 68,15,88,219 // addps %xmm3,%xmm11 .byte 68,15,92,212 // subps %xmm4,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 68,15,88,212 // addps %xmm4,%xmm10 .byte 68,15,92,225 // subps %xmm1,%xmm12 .byte 15,40,84,36,144 // movaps -0x70(%rsp),%xmm2 .byte 68,15,89,226 // mulps %xmm2,%xmm12 .byte 68,15,88,225 // addps %xmm1,%xmm12 .byte 68,15,92,221 // subps %xmm5,%xmm11 .byte 68,15,89,218 // mulps %xmm2,%xmm11 .byte 68,15,88,221 // addps %xmm5,%xmm11 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 68,15,89,210 // mulps %xmm2,%xmm10 .byte 68,15,88,208 // addps %xmm0,%xmm10 .byte 102,15,111,68,36,192 // movdqa -0x40(%rsp),%xmm0 .byte 102,15,254,68,36,176 // paddd -0x50(%rsp),%xmm0 .byte 102,15,111,76,36,16 // movdqa 0x10(%rsp),%xmm1 .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm6 .byte 102,15,254,198 // paddd %xmm6,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,29,71,27,0,0 // movdqa 0x1b47(%rip),%xmm3 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,15,244,195 // pmuludq %xmm3,%xmm0 .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2 .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,65,15,126,194 // movd %xmm0,%r10d .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,65,15,126,193 // movd %xmm0,%r9d .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,68,15,111,5,239,26,0,0 // movdqa 0x1aef(%rip),%xmm8 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,65,15,254,200 // paddd %xmm8,%xmm1 .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 102,65,15,254,209 // paddd %xmm9,%xmm2 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,73,15,126,217 // movq %xmm3,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 102,15,111,221 // movdqa %xmm5,%xmm3 .byte 102,65,15,254,223 // paddd %xmm15,%xmm3 .byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4 .byte 102,65,15,244,222 // pmuludq %xmm14,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,65,15,244,230 // pmuludq %xmm14,%xmm4 .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4 .byte 102,15,98,220 // punpckldq %xmm4,%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,65,15,126,226 // movd %xmm4,%r10d .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,65,15,126,225 // movd %xmm4,%r9d .byte 102,15,112,227,231 // pshufd $0xe7,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,68,15,16,52,131 // movss (%rbx,%rax,4),%xmm14 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 68,15,20,244 // unpcklps %xmm4,%xmm14 .byte 68,15,20,245 // unpcklps %xmm5,%xmm14 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,65,15,254,224 // paddd %xmm8,%xmm4 .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,73,15,126,233 // movq %xmm5,%r9 .byte 102,73,15,126,226 // movq %xmm4,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,68,15,16,4,131 // movss (%rbx,%rax,4),%xmm8 .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 68,15,20,197 // unpcklps %xmm5,%xmm8 .byte 68,15,20,196 // unpcklps %xmm4,%xmm8 .byte 102,65,15,254,217 // paddd %xmm9,%xmm3 .byte 102,69,15,111,249 // movdqa %xmm9,%xmm15 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 102,73,15,126,218 // movq %xmm3,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 68,15,92,240 // subps %xmm0,%xmm14 .byte 15,40,92,36,240 // movaps -0x10(%rsp),%xmm3 .byte 68,15,89,243 // mulps %xmm3,%xmm14 .byte 68,15,88,240 // addps %xmm0,%xmm14 .byte 68,15,92,193 // subps %xmm1,%xmm8 .byte 68,15,89,195 // mulps %xmm3,%xmm8 .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 15,92,234 // subps %xmm2,%xmm5 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 102,15,254,124,36,128 // paddd -0x80(%rsp),%xmm7 .byte 102,15,254,247 // paddd %xmm7,%xmm6 .byte 102,15,112,206,245 // pshufd $0xf5,%xmm6,%xmm1 .byte 102,15,111,21,17,25,0,0 // movdqa 0x1911(%rip),%xmm2 # 9bd0 <_sk_clut_4D_sse2+0x2c28> .byte 102,15,244,242 // pmuludq %xmm2,%xmm6 .byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,65,15,126,202 // movd %xmm1,%r10d .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,201 // movd %xmm1,%r9d .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,68,15,16,12,131 // movss (%rbx,%rax,4),%xmm9 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 68,15,20,201 // unpcklps %xmm1,%xmm9 .byte 68,15,20,202 // unpcklps %xmm2,%xmm9 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,254,13,184,24,0,0 // paddd 0x18b8(%rip),%xmm1 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,209 // movq %xmm2,%r9 .byte 102,73,15,126,202 // movq %xmm1,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 102,65,15,254,199 // paddd %xmm15,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,201 // movq %xmm1,%r9 .byte 102,73,15,126,194 // movq %xmm0,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3 .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 102,68,15,111,255 // movdqa %xmm7,%xmm15 .byte 102,68,15,254,60,36 // paddd (%rsp),%xmm15 .byte 102,65,15,112,199,245 // pshufd $0xf5,%xmm15,%xmm0 .byte 102,68,15,244,254 // pmuludq %xmm6,%xmm15 .byte 102,15,244,198 // pmuludq %xmm6,%xmm0 .byte 102,65,15,112,215,232 // pshufd $0xe8,%xmm15,%xmm2 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,65,15,126,194 // movd %xmm0,%r10d .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,65,15,126,193 // movd %xmm0,%r9d .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0 .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,15,111,53,190,23,0,0 // movdqa 0x17be(%rip),%xmm6 # 9be0 <_sk_clut_4D_sse2+0x2c38> .byte 102,15,254,242 // paddd %xmm2,%xmm6 .byte 102,15,112,206,78 // pshufd $0x4e,%xmm6,%xmm1 .byte 102,73,15,126,201 // movq %xmm1,%r9 .byte 102,73,15,126,242 // movq %xmm6,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1 .byte 243,70,15,16,60,139 // movss (%rbx,%r9,4),%xmm15 .byte 65,15,20,207 // unpcklps %xmm15,%xmm1 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 102,15,254,21,127,23,0,0 // paddd 0x177f(%rip),%xmm2 # 9bf0 <_sk_clut_4D_sse2+0x2c48> .byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7 .byte 102,73,15,126,249 // movq %xmm7,%r9 .byte 102,73,15,126,210 // movq %xmm2,%r10 .byte 77,137,203 // mov %r9,%r11 .byte 73,193,235,32 // shr $0x20,%r11 .byte 76,137,208 // mov %r10,%rax .byte 72,193,232,32 // shr $0x20,%rax .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 68,137,208 // mov %r10d,%eax .byte 69,137,201 // mov %r9d,%r9d .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 65,15,92,193 // subps %xmm9,%xmm0 .byte 15,40,116,36,240 // movaps -0x10(%rsp),%xmm6 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 65,15,92,198 // subps %xmm14,%xmm0 .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,88,198 // addps %xmm14,%xmm0 .byte 65,15,92,200 // subps %xmm8,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 65,15,92,196 // subps %xmm12,%xmm0 .byte 15,40,92,36,32 // movaps 0x20(%rsp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 65,15,88,196 // addps %xmm12,%xmm0 .byte 65,15,92,203 // subps %xmm11,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 65,15,88,203 // addps %xmm11,%xmm1 .byte 65,15,92,210 // subps %xmm10,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 15,91,92,36,48 // cvtdq2ps 0x30(%rsp),%xmm3 .byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,92,36,224 // movaps -0x20(%rsp),%xmm3 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,195 // addps %xmm3,%xmm0 .byte 15,40,92,36,208 // movaps -0x30(%rsp),%xmm3 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 65,15,92,213 // subps %xmm13,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 65,15,88,213 // addps %xmm13,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,29,164,22,0,0 // movaps 0x16a4(%rip),%xmm3 # 9c00 <_sk_clut_4D_sse2+0x2c58> .byte 15,40,100,36,112 // movaps 0x70(%rsp),%xmm4 .byte 15,40,172,36,128,0,0,0 // movaps 0x80(%rsp),%xmm5 .byte 15,40,180,36,144,0,0,0 // movaps 0x90(%rsp),%xmm6 .byte 15,40,188,36,160,0,0,0 // movaps 0xa0(%rsp),%xmm7 .byte 72,129,196,176,0,0,0 // add $0xb0,%rsp .byte 91 // pop %rbx .byte 255,224 // jmpq *%rax BALIGN16 .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,1 // cmpb $0x1,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1) .byte 252 // cld .byte 190,0,0,252,190 // mov $0xbefc0000,%esi .byte 0,0 // add %al,(%rax) .byte 252 // cld .byte 190,0,0,252,190 // mov $0xbefc0000,%esi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax) .byte 191,0,0,128,191 // mov $0xbf800000,%edi .byte 0,0 // add %al,(%rax) .byte 128,191,0,0,224,64,0 // cmpb $0x0,0x40e00000(%rdi) .byte 0,224 // add %ah,%al .byte 64,0,0 // add %al,(%rax) .byte 224,64 // loopne 878c <.literal16+0x1fc> .byte 0,0 // add %al,(%rax) .byte 224,64 // loopne 8790 <.literal16+0x200> .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87b1 <.literal16+0x221> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87b5 <.literal16+0x225> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87b9 <.literal16+0x229> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87bd <.literal16+0x22d> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87f1 <.literal16+0x261> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87f5 <.literal16+0x265> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87f9 <.literal16+0x269> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 87fd <.literal16+0x26d> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 8831 <.literal16+0x2a1> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 8835 <.literal16+0x2a5> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 8839 <.literal16+0x2a9> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 883d <.literal16+0x2ad> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,154 // cmpb $0x9a,(%rdi) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 8871 <.literal16+0x2e1> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 8875 <.literal16+0x2e5> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 8879 <.literal16+0x2e9> .byte 174 // scas %es:(%rdi),%al .byte 71,225,61 // rex.RXB loope 887d <.literal16+0x2ed> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,255 // cmpb $0xff,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,127 // add %al,0x7f00003f(%rax) .byte 67,0,0 // rex.XB add %al,(%r8) .byte 127,67 // jg 88bb <.literal16+0x32b> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 88bf <.literal16+0x32f> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 88c3 <.literal16+0x333> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,145,131,158 // add %al,-0x617c6ec1(%rax) .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi) .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,92 // ds pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi) .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi) .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,154 // ds (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,92 // ds pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 92 // pop %rsp .byte 143 // (bad) .byte 50,63 // xor (%rdi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%rbx),%edi .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 174 // scas %es:(%rdi),%al .byte 71,97 // rex.RXB (bad) .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 82 // push %rdx .byte 184,78,65,82,184 // mov $0xb852414e,%eax .byte 78 // rex.WRX .byte 65,82 // push %r10 .byte 184,78,65,82,184 // mov $0xb852414e,%eax .byte 78 // rex.WRX .byte 65,57,215 // cmp %edx,%r15d .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%rbx) .byte 57,215 // cmp %edx,%edi .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%rbx) .byte 186,159,98,60,186 // mov $0xba3c629f,%edx .byte 159 // lahf .byte 98 // (bad) .byte 60,186 // cmp $0xba,%al .byte 159 // lahf .byte 98 // (bad) .byte 60,186 // cmp $0xba,%al .byte 159 // lahf .byte 98 // (bad) .byte 60,109 // cmp $0x6d,%al .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 109 // insl (%dx),%es:(%rdi) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 144 // nop .byte 63 // (bad) .byte 252 // cld .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi .byte 16,62 // adc %bh,(%rsi) .byte 252 // cld .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi .byte 16,62 // adc %bh,(%rsi) .byte 168,177 // test $0xb1,%al .byte 152 // cwtl .byte 59,168,177,152,59,168 // cmp -0x57c4674f(%rax),%ebp .byte 177,152 // mov $0x98,%cl .byte 59,168,177,152,59,0 // cmp 0x3b98b1(%rax),%ebp .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%rax) .byte 64,0,0 // add %al,(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 0,64,0 // add %al,0x0(%rax) .byte 0,0 // add %al,(%rax) .byte 64,0,0 // add %al,(%rax) .byte 0,64,0 // add %al,0x0(%rax) .byte 0,0 // add %al,(%rax) .byte 64,0,0 // add %al,(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,171,170 // addb $0xaa,-0x55(%rax) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 62,0,0 // add %al,%ds:(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,171 // cmpb $0xab,(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,63 // sub (%rdi),%bh .byte 0,0 // add %al,(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 192,64,0,0 // rolb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,0,0 // addb $0x0,0x0(%rax) .byte 128,64,171,170 // addb $0xaa,-0x55(%rax) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 42,62 // sub (%rsi),%bh .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,248,0,0 // addb $0x0,0xf8003b(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 8b19 <.literal16+0x589> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8b1d <.literal16+0x58d> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8b21 <.literal16+0x591> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 8b25 <.literal16+0x595> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,255,0 // addb $0x0,-0xff00c5(%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8bfb <.literal16+0x66b> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8bff <.literal16+0x66f> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 8c03 <.literal16+0x673> .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8bf4 <.literal16+0x664> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8bf8 <.literal16+0x668> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8bfc <.literal16+0x66c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8c00 <.literal16+0x670> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8c85 <.literal16+0x6f5> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8be9 <.literal16+0x659> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3cc2a <_sk_clut_4D_sse2+0xffffffffe9a35c82> .byte 220,63 // fdivrl (%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,81 // cmpb $0x51,(%rdi) .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,52,0 // add %dh,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8cc4 <.literal16+0x734> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8cc8 <.literal16+0x738> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8ccc <.literal16+0x73c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8cd0 <.literal16+0x740> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8d55 <.literal16+0x7c5> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8cb9 <.literal16+0x729> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3ccfa <_sk_clut_4D_sse2+0xffffffffe9a35d52> .byte 220,63 // fdivrl (%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,81 // cmpb $0x51,(%rdi) .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,52,0 // add %dh,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8d94 <.literal16+0x804> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8d98 <.literal16+0x808> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8d9c <.literal16+0x80c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8da0 <.literal16+0x810> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8e25 <.literal16+0x895> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8d89 <.literal16+0x7f9> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3cdca <_sk_clut_4D_sse2+0xffffffffe9a35e22> .byte 220,63 // fdivrl (%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,81 // cmpb $0x51,(%rdi) .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,52,0 // add %dh,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8e64 <.literal16+0x8d4> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8e68 <.literal16+0x8d8> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8e6c <.literal16+0x8dc> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8e70 <.literal16+0x8e0> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8ef5 <.literal16+0x965> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8e59 <.literal16+0x8c9> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3ce9a <_sk_clut_4D_sse2+0xffffffffe9a35ef2> .byte 220,63 // fdivrl (%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,81 // cmpb $0x51,(%rdi) .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,52,0 // add %dh,(%rax,%rax,1) .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 8f34 <.literal16+0x9a4> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8f38 <.literal16+0x9a8> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8f3c <.literal16+0x9ac> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 8f40 <.literal16+0x9b0> .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 119,115 // ja 8fc5 <.literal16+0xa35> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 117,191 // jne 8f29 <.literal16+0x999> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 .byte 233,220,63,163,233 // jmpq ffffffffe9a3cf6a <_sk_clut_4D_sse2+0xffffffffe9a35fc2> .byte 220,63 // fdivrl (%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,81 // cmpb $0x51,(%rdi) .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,81 // rex.X push %rcx .byte 140,242 // mov %?,%edx .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi .byte 63 // (bad) .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi .byte 63 // (bad) .byte 248 // clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,248 // rex clc .byte 245 // cmc .byte 154 // (bad) .byte 64,254 // rex (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,254 // rex.B (bad) .byte 210,221 // rcr %cl,%ch .byte 65,0,0 // add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 0,75,0 // add %cl,0x0(%rbx) .byte 0,0 // add %al,(%rax) .byte 75,0,0 // rex.WXB add %al,(%r8) .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 200,66,0,0 // enterq $0x42,$0x0 .byte 127,67 // jg 9047 <.literal16+0xab7> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 904b <.literal16+0xabb> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 904f <.literal16+0xabf> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 9053 <.literal16+0xac3> .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%rax) .byte 128,65,0,0 // addb $0x0,0x0(%rcx) .byte 128,65,0,0 // addb $0x0,0x0(%rcx) .byte 128,65,0,0 // addb $0x0,0x0(%rcx) .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx) .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax .byte 60,203 // cmp $0xcb,%al .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax .byte 13,60,111,18,3 // or $0x3126f3c,%eax .byte 59,111,18 // cmp 0x12(%rdi),%ebp .byte 3,59 // add (%rbx),%edi .byte 111 // outsl %ds:(%rsi),(%dx) .byte 18,3 // adc (%rbx),%al .byte 59,111,18 // cmp 0x12(%rdi),%ebp .byte 3,59 // add (%rbx),%edi .byte 10,215 // or %bh,%dl .byte 163,59,10,215,163,59,10,215,163 // movabs %eax,0xa3d70a3ba3d70a3b .byte 59,10 // cmp (%rdx),%ecx .byte 215 // xlat %ds:(%rbx) .byte 163,59,194,24,17,60,194,24,17 // movabs %eax,0x1118c23c1118c23b .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%rcx) .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%rcx) .byte 60,203 // cmp $0xcb,%al .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 80 // push %rax .byte 128,3,62 // addb $0x3e,(%rbx) .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 90d3 <.literal16+0xb43> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 90d7 <.literal16+0xb47> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 90db <.literal16+0xb4b> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) .byte 118,63 // jbe 90df <.literal16+0xb4f> .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,0 // cmpb $0x0,(%rbx) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 914b <.literal16+0xbbb> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 914f <.literal16+0xbbf> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 9153 <.literal16+0xbc3> .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 91c9 <.literal16+0xc39> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 91cd <.literal16+0xc3d> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 91d1 <.literal16+0xc41> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 91d5 <.literal16+0xc45> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 248 // clc .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 9239 <.literal16+0xca9> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 923d <.literal16+0xcad> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 9241 <.literal16+0xcb1> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 9245 <.literal16+0xcb5> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 248 // clc .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) .byte 224,7 // loopne 92a9 <.literal16+0xd19> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 92ad <.literal16+0xd1d> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 92b1 <.literal16+0xd21> .byte 0,0 // add %al,(%rax) .byte 224,7 // loopne 92b5 <.literal16+0xd25> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh .byte 31 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,31 // add %bl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,8 // add %cl,(%rax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1) .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%rcx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,248 // add %bh,%al .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) .byte 124,66 // jl 9346 <.literal16+0xdb6> .byte 0,0 // add %al,(%rax) .byte 124,66 // jl 934a <.literal16+0xdba> .byte 0,0 // add %al,(%rax) .byte 124,66 // jl 934e <.literal16+0xdbe> .byte 0,0 // add %al,(%rax) .byte 124,66 // jl 9352 <.literal16+0xdc2> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 240,0,0 // lock add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 240,0,0 // lock add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax) .byte 136,55 // mov %dh,(%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax) .byte 136,57 // mov %bh,(%rcx) .byte 240,0,0 // lock add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,15 // add %cl,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 94d5 <.literal16+0xf45> .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 94d9 <.literal16+0xf49> .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 94dd <.literal16+0xf4d> .byte 0,0 // add %al,(%rax) .byte 112,65 // jo 94e1 <.literal16+0xf51> .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%rax) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 954b <.literal16+0xfbb> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 954f <.literal16+0xfbf> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 9553 <.literal16+0xfc3> .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax) .byte 128,59,129 // cmpb $0x81,(%rbx) .byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%rax) .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 95bb <.literal16+0x102b> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 95bf <.literal16+0x102f> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 95c3 <.literal16+0x1033> .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 128,0,4 // addb $0x4,(%rax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 128,0,128 // addb $0x80,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,0 // add %al,0x0(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 128,0,4 // addb $0x4,(%rax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 128,0,128 // addb $0x80,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,0 // add %al,0x0(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,56 // add %bh,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 128,0,4 // addb $0x4,(%rax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax) .byte 0,4,0 // add %al,(%rax,%rax,1) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 128,56,0 // cmpb $0x0,(%rax) .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax) .byte 255,0 // incl (%rax) .byte 64,254 // rex (bad) .byte 255,0 // incl (%rax) .byte 64,254 // rex (bad) .byte 255,0 // incl (%rax) .byte 64,254 // rex (bad) .byte 255,128,0,128,55,128 // incl -0x7fc88000(%rax) .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 128,0,128 // addb $0x80,(%rax) .byte 55 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 255 // (bad) .byte 127,71 // jg 96eb <.literal16+0x115b> .byte 0,255 // add %bh,%bh .byte 127,71 // jg 96ef <.literal16+0x115f> .byte 0,255 // add %bh,%bh .byte 127,71 // jg 96f3 <.literal16+0x1163> .byte 0,255 // add %bh,%bh .byte 127,71 // jg 96f7 <.literal16+0x1167> .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,191,0,0,128,191,0 // cmpb $0x0,-0x40800000(%rdi) .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax) .byte 191,0,0,0,63 // mov $0x3f000000,%edi .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,208 // cmpb $0xd0,(%rdi) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,89 // ds pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) .byte 63 // (bad) .byte 152 // cwtl .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%rbx) .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax .byte 152 // cwtl .byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx) .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc0a88a <_sk_clut_4D_sse2+0x2dc038e2> .byte 17,192 // adc %eax,%eax .byte 45,16,17,192,18 // sub $0x12c01110,%eax .byte 120,57 // js 97bc <.literal16+0x122c> .byte 64,18,120,57 // adc 0x39(%rax),%dil .byte 64,18,120,57 // adc 0x39(%rax),%dil .byte 64,18,120,57 // adc 0x39(%rax),%dil .byte 64,32,148,90,62,32,148,90 // and %dl,0x5a94203e(%rdx,%rbx,2) .byte 62,32,148,90,62,32,148,90 // and %dl,%ds:0x5a94203e(%rdx,%rbx,2) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // (bad) .byte 62,0,24 // add %bl,%ds:(%rax) .byte 161,57,0,24,161,57,0,24,161 // movabs 0xa1180039a1180039,%eax .byte 57,0 // cmp %eax,(%rax) .byte 24,161,57,1,0,0 // sbb %ah,0x139(%rcx) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,111,43 // add %ch,0x2b(%rdi) .byte 231,187 // out %eax,$0xbb .byte 111 // outsl %ds:(%rsi),(%dx) .byte 43,231 // sub %edi,%esp .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx .byte 111 // outsl %ds:(%rsi),(%dx) .byte 43,231 // sub %edi,%esp .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx .byte 159 // lahf .byte 215 // xlat %ds:(%rbx) .byte 202,60,159 // lret $0x9f3c .byte 215 // xlat %ds:(%rbx) .byte 202,60,159 // lret $0x9f3c .byte 215 // xlat %ds:(%rbx) .byte 202,60,212 // lret $0xd43c .byte 100,84 // fs push %rsp .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp .byte 212 // (bad) .byte 100,84 // fs push %rsp .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp .byte 169,240,34,62,169 // test $0xa93e22f0,%eax .byte 240,34,62 // lock and (%rsi),%bh .byte 169,240,34,62,169 // test $0xa93e22f0,%eax .byte 240,34,62 // lock and (%rsi),%bh .byte 0,0 // add %al,(%rax) .byte 128,62,0 // cmpb $0x0,(%rsi) .byte 0,128,62,0,0,128 // add %al,-0x7fffffc2(%rax) .byte 62,0,0 // add %al,%ds:(%rax) .byte 128,62,0 // cmpb $0x0,(%rsi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,128,192,0,0,128 // add %al,-0x7fffff40(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,128,192,0,0,128 // add %al,-0x7fffff40(%rax) .byte 192,0,0 // rolb $0x0,(%rax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 191,0,0,0,191 // mov $0xbf000000,%edi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,0 // add %al,(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,114 // cmpb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,114,28 // jb,pt 99a2 <.literal16+0x1412> .byte 199 // (bad) .byte 62,114,28 // jb,pt 99a6 <.literal16+0x1416> .byte 199 // (bad) .byte 62,114,28 // jb,pt 99aa <.literal16+0x141a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,85 // cmpb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642835 <_sk_clut_4D_sse2+0x3d63b88d> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642875 <_sk_clut_4D_sse2+0x3d63b8cd> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 114,28 // jb 9a6e <.literal16+0x14de> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9a72 <.literal16+0x14e2> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9a76 <.literal16+0x14e6> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9a7a <.literal16+0x14ea> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%rax) .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,114 // cmpb $0x72,(%rdi) .byte 28,199 // sbb $0xc7,%al .byte 62,114,28 // jb,pt 9ab2 <.literal16+0x1522> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9ab6 <.literal16+0x1526> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9aba <.literal16+0x152a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128,63,85 // cmpb $0x55,(%rdi) .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642945 <_sk_clut_4D_sse2+0x3d63b99d> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d642985 <_sk_clut_4D_sse2+0x3d63b9dd> .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 192,63,0 // sarb $0x0,(%rdi) .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 114,28 // jb 9b7e <.literal16+0x15ee> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9b82 <.literal16+0x15f2> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9b86 <.literal16+0x15f6> .byte 199 // (bad) .byte 62,114,28 // jb,pt 9b8a <.literal16+0x15fa> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 170 // stos %al,%es:(%rdi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 114,249 // jb 9b7b <.literal16+0x15eb> .byte 127,63 // jg 9bc3 <.literal16+0x1633> .byte 114,249 // jb 9b7f <.literal16+0x15ef> .byte 127,63 // jg 9bc7 <.literal16+0x1637> .byte 114,249 // jb 9b83 <.literal16+0x15f3> .byte 127,63 // jg 9bcb <.literal16+0x163b> .byte 114,249 // jb 9b87 <.literal16+0x15f7> .byte 127,63 // jg 9bcf <.literal16+0x163f> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 114,249 // jb 9bbb <.literal16+0x162b> .byte 127,63 // jg 9c03 <.literal16+0x1673> .byte 114,249 // jb 9bbf <.literal16+0x162f> .byte 127,63 // jg 9c07 <.literal16+0x1677> .byte 114,249 // jb 9bc3 <.literal16+0x1633> .byte 127,63 // jg 9c0b <.literal16+0x167b> .byte 114,249 // jb 9bc7 <.literal16+0x1637> .byte 127,63 // jg 9c0f <.literal16+0x167f> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 2,0 // add (%rax),%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 128,63,0 // cmpb $0x0,(%rdi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax) .byte 63 // (bad) .byte 0,0 // add %al,(%rax) .byte 128 // .byte 0x80 .byte 63 // (bad) BALIGN4 .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) .byte 0,0 // add %al,(%rax) .byte 0,63 // add %bh,(%rdi) BALIGN32 HIDDEN _sk_start_pipeline_hsw_8bit .globl _sk_start_pipeline_hsw_8bit FUNCTION(_sk_start_pipeline_hsw_8bit) _sk_start_pipeline_hsw_8bit: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,56 // sub $0x38,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,247 // mov %rsi,%r15 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,197 // mov %rax,%r13 .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,168 // mov %rcx,-0x58(%rbp) .byte 73,57,207 // cmp %rcx,%r15 .byte 115,102 // jae 95 <_sk_start_pipeline_hsw_8bit+0x95> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,176 // mov %rax,-0x50(%rbp) .byte 76,141,101,184 // lea -0x48(%rbp),%r12 .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,125,192 // mov %r15,-0x40(%rbp) .byte 72,199,69,200,0,0,0,0 // movq $0x0,-0x38(%rbp) .byte 72,57,93,176 // cmp %rbx,-0x50(%rbp) .byte 119,30 // ja 77 <_sk_start_pipeline_hsw_8bit+0x77> .byte 76,137,231 // mov %r12,%rdi .byte 76,137,246 // mov %r14,%rsi .byte 65,255,213 // callq *%r13 .byte 72,139,77,184 // mov -0x48(%rbp),%rcx .byte 72,141,65,8 // lea 0x8(%rcx),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 72,131,193,16 // add $0x10,%rcx .byte 72,57,217 // cmp %rbx,%rcx .byte 118,226 // jbe 59 <_sk_start_pipeline_hsw_8bit+0x59> .byte 72,137,217 // mov %rbx,%rcx .byte 72,41,193 // sub %rax,%rcx .byte 116,13 // je 8c <_sk_start_pipeline_hsw_8bit+0x8c> .byte 72,137,77,200 // mov %rcx,-0x38(%rbp) .byte 76,137,231 // mov %r12,%rdi .byte 76,137,246 // mov %r14,%rsi .byte 65,255,213 // callq *%r13 .byte 73,255,199 // inc %r15 .byte 76,59,125,168 // cmp -0x58(%rbp),%r15 .byte 117,170 // jne 3f <_sk_start_pipeline_hsw_8bit+0x3f> .byte 72,131,196,56 // add $0x38,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 197,248,119 // vzeroupper .byte 195 // retq HIDDEN _sk_just_return_hsw_8bit .globl _sk_just_return_hsw_8bit FUNCTION(_sk_just_return_hsw_8bit) _sk_just_return_hsw_8bit: .byte 195 // retq HIDDEN _sk_uniform_color_hsw_8bit .globl _sk_uniform_color_hsw_8bit FUNCTION(_sk_uniform_color_hsw_8bit) _sk_uniform_color_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_hsw_8bit .globl _sk_set_rgb_hsw_8bit FUNCTION(_sk_set_rgb_hsw_8bit) _sk_set_rgb_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,250,16,21,54,18,0,0 // vmovss 0x1236(%rip),%xmm2 # 12f4 <_sk_xor__hsw_8bit+0xbd> .byte 197,234,89,24 // vmulss (%rax),%xmm2,%xmm3 .byte 196,225,250,44,203 // vcvttss2si %xmm3,%rcx .byte 197,234,89,88,4 // vmulss 0x4(%rax),%xmm2,%xmm3 .byte 196,225,250,44,211 // vcvttss2si %xmm3,%rdx .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx .byte 197,234,89,80,8 // vmulss 0x8(%rax),%xmm2,%xmm2 .byte 196,225,250,44,194 // vcvttss2si %xmm2,%rax .byte 193,224,16 // shl $0x10,%eax .byte 9,208 // or %edx,%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2 .byte 197,253,219,5,42,18,0,0 // vpand 0x122a(%rip),%ymm0,%ymm0 # 1320 <_sk_xor__hsw_8bit+0xe9> .byte 197,237,235,192 // vpor %ymm0,%ymm2,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_hsw_8bit .globl _sk_premul_hsw_8bit FUNCTION(_sk_premul_hsw_8bit) _sk_premul_hsw_8bit: .byte 196,226,125,0,21,57,18,0,0 // vpshufb 0x1239(%rip),%ymm0,%ymm2 # 1340 <_sk_xor__hsw_8bit+0x109> .byte 197,237,235,21,81,18,0,0 // vpor 0x1251(%rip),%ymm2,%ymm2 # 1360 <_sk_xor__hsw_8bit+0x129> .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,226 // vpmovzxbw %xmm2,%ymm4 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,208 // vpmullw %ymm0,%ymm2,%ymm2 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,237,253,192 // vpaddw %ymm0,%ymm2,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,211,8 // vpsrlw $0x8,%ymm3,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_hsw_8bit .globl _sk_swap_rb_hsw_8bit FUNCTION(_sk_swap_rb_hsw_8bit) _sk_swap_rb_hsw_8bit: .byte 196,226,125,0,5,26,18,0,0 // vpshufb 0x121a(%rip),%ymm0,%ymm0 # 1380 <_sk_xor__hsw_8bit+0x149> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_hsw_8bit .globl _sk_invert_hsw_8bit FUNCTION(_sk_invert_hsw_8bit) _sk_invert_hsw_8bit: .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 197,253,239,194 // vpxor %ymm2,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_load_8888_hsw_8bit .globl _sk_load_8888_hsw_8bit FUNCTION(_sk_load_8888_hsw_8bit) _sk_load_8888_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,8 // jne 1a3 <_sk_load_8888_hsw_8bit+0x2d> .byte 197,254,111,0 // vmovdqu (%rax),%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,194 // vmovq %rdx,%xmm0 .byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0 .byte 196,226,125,140,0 // vpmaskmovd (%rax),%ymm0,%ymm0 .byte 235,214 // jmp 19f <_sk_load_8888_hsw_8bit+0x29> HIDDEN _sk_load_8888_dst_hsw_8bit .globl _sk_load_8888_dst_hsw_8bit FUNCTION(_sk_load_8888_dst_hsw_8bit) _sk_load_8888_dst_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,8 // jne 1f6 <_sk_load_8888_dst_hsw_8bit+0x2d> .byte 197,254,111,8 // vmovdqu (%rax),%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,202 // vmovq %rdx,%xmm1 .byte 196,226,125,33,201 // vpmovsxbd %xmm1,%ymm1 .byte 196,226,117,140,8 // vpmaskmovd (%rax),%ymm1,%ymm1 .byte 235,214 // jmp 1f2 <_sk_load_8888_dst_hsw_8bit+0x29> HIDDEN _sk_store_8888_hsw_8bit .globl _sk_store_8888_hsw_8bit FUNCTION(_sk_store_8888_hsw_8bit) _sk_store_8888_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,8 // jne 249 <_sk_store_8888_hsw_8bit+0x2d> .byte 197,254,127,0 // vmovdqu %ymm0,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,210 // vmovq %rdx,%xmm2 .byte 196,226,125,33,210 // vpmovsxbd %xmm2,%ymm2 .byte 196,226,109,142,0 // vpmaskmovd %ymm0,%ymm2,(%rax) .byte 235,214 // jmp 245 <_sk_store_8888_hsw_8bit+0x29> HIDDEN _sk_load_bgra_hsw_8bit .globl _sk_load_bgra_hsw_8bit FUNCTION(_sk_load_bgra_hsw_8bit) _sk_load_bgra_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,17 // jne 2a5 <_sk_load_bgra_hsw_8bit+0x36> .byte 197,254,111,0 // vmovdqu (%rax),%ymm0 .byte 196,226,125,0,5,255,16,0,0 // vpshufb 0x10ff(%rip),%ymm0,%ymm0 # 13a0 <_sk_xor__hsw_8bit+0x169> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,194 // vmovq %rdx,%xmm0 .byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0 .byte 196,226,125,140,0 // vpmaskmovd (%rax),%ymm0,%ymm0 .byte 235,205 // jmp 298 <_sk_load_bgra_hsw_8bit+0x29> HIDDEN _sk_load_bgra_dst_hsw_8bit .globl _sk_load_bgra_dst_hsw_8bit FUNCTION(_sk_load_bgra_dst_hsw_8bit) _sk_load_bgra_dst_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,17 // jne 301 <_sk_load_bgra_dst_hsw_8bit+0x36> .byte 197,254,111,8 // vmovdqu (%rax),%ymm1 .byte 196,226,117,0,13,195,16,0,0 // vpshufb 0x10c3(%rip),%ymm1,%ymm1 # 13c0 <_sk_xor__hsw_8bit+0x189> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,202 // vmovq %rdx,%xmm1 .byte 196,226,125,33,201 // vpmovsxbd %xmm1,%ymm1 .byte 196,226,117,140,8 // vpmaskmovd (%rax),%ymm1,%ymm1 .byte 235,205 // jmp 2f4 <_sk_load_bgra_dst_hsw_8bit+0x29> HIDDEN _sk_store_bgra_hsw_8bit .globl _sk_store_bgra_hsw_8bit FUNCTION(_sk_store_bgra_hsw_8bit) _sk_store_bgra_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 196,226,125,0,21,144,16,0,0 // vpshufb 0x1090(%rip),%ymm0,%ymm2 # 13e0 <_sk_xor__hsw_8bit+0x1a9> .byte 77,133,192 // test %r8,%r8 .byte 117,8 // jne 35d <_sk_store_bgra_hsw_8bit+0x36> .byte 197,254,127,16 // vmovdqu %ymm2,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,218 // vmovq %rdx,%xmm3 .byte 196,226,125,33,219 // vpmovsxbd %xmm3,%ymm3 .byte 196,226,101,142,16 // vpmaskmovd %ymm2,%ymm3,(%rax) .byte 235,214 // jmp 359 <_sk_store_bgra_hsw_8bit+0x32> HIDDEN _sk_load_a8_hsw_8bit .globl _sk_load_a8_hsw_8bit FUNCTION(_sk_load_a8_hsw_8bit) _sk_load_a8_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,28 // jne 3bc <_sk_load_a8_hsw_8bit+0x39> .byte 196,162,121,48,4,2 // vpmovzxbw (%rdx,%r8,1),%xmm0 .byte 197,249,219,5,82,18,0,0 // vpand 0x1252(%rip),%xmm0,%xmm0 # 1600 <_sk_xor__hsw_8bit+0x3c9> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,253,114,240,24 // vpslld $0x18,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 119,217 // ja 3a6 <_sk_load_a8_hsw_8bit+0x23> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,116,0,0,0 // lea 0x74(%rip),%rcx # 44c <_sk_load_a8_hsw_8bit+0xc9> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 235,186 // jmp 3a6 <_sk_load_a8_hsw_8bit+0x23> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,121,2,194,1 // vpblendd $0x1,%xmm2,%xmm0,%xmm0 .byte 235,149 // jmp 3a6 <_sk_load_a8_hsw_8bit+0x23> .byte 66,15,182,68,2,6 // movzbl 0x6(%rdx,%r8,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 66,15,182,68,2,5 // movzbl 0x5(%rdx,%r8,1),%eax .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0 .byte 66,15,182,68,2,4 // movzbl 0x4(%rdx,%r8,1),%eax .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0 .byte 196,161,121,110,20,2 // vmovd (%rdx,%r8,1),%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,105,2,192,12 // vpblendd $0xc,%xmm0,%xmm2,%xmm0 .byte 233,90,255,255,255 // jmpq 3a6 <_sk_load_a8_hsw_8bit+0x23> .byte 149 // xchg %eax,%ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255,175,255,255,255,160 // ljmp *-0x5f000001(%rdi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,212 // callq *%rsp .byte 255 // (bad) .byte 255 // (bad) .byte 255,197 // inc %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_a8_dst_hsw_8bit .globl _sk_load_a8_dst_hsw_8bit FUNCTION(_sk_load_a8_dst_hsw_8bit) _sk_load_a8_dst_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,28 // jne 4a1 <_sk_load_a8_dst_hsw_8bit+0x39> .byte 196,162,121,48,12,2 // vpmovzxbw (%rdx,%r8,1),%xmm1 .byte 197,241,219,13,125,17,0,0 // vpand 0x117d(%rip),%xmm1,%xmm1 # 1610 <_sk_xor__hsw_8bit+0x3d9> .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1 .byte 197,245,114,241,24 // vpslld $0x18,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 119,217 // ja 48b <_sk_load_a8_dst_hsw_8bit+0x23> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,119,0,0,0 // lea 0x77(%rip),%rcx # 534 <_sk_load_a8_dst_hsw_8bit+0xcc> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 235,186 // jmp 48b <_sk_load_a8_dst_hsw_8bit+0x23> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,241,196,200,2 // vpinsrw $0x2,%eax,%xmm1,%xmm1 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,113,2,202,1 // vpblendd $0x1,%xmm2,%xmm1,%xmm1 .byte 235,149 // jmp 48b <_sk_load_a8_dst_hsw_8bit+0x23> .byte 66,15,182,68,2,6 // movzbl 0x6(%rdx,%r8,1),%eax .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,241,196,200,6 // vpinsrw $0x6,%eax,%xmm1,%xmm1 .byte 66,15,182,68,2,5 // movzbl 0x5(%rdx,%r8,1),%eax .byte 197,241,196,200,5 // vpinsrw $0x5,%eax,%xmm1,%xmm1 .byte 66,15,182,68,2,4 // movzbl 0x4(%rdx,%r8,1),%eax .byte 197,241,196,200,4 // vpinsrw $0x4,%eax,%xmm1,%xmm1 .byte 196,161,121,110,20,2 // vmovd (%rdx,%r8,1),%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,105,2,201,12 // vpblendd $0xc,%xmm1,%xmm2,%xmm1 .byte 233,90,255,255,255 // jmpq 48b <_sk_load_a8_dst_hsw_8bit+0x23> .byte 15,31,0 // nopl (%rax) .byte 146 // xchg %eax,%edx .byte 255 // (bad) .byte 255 // (bad) .byte 255,172,255,255,255,157,255 // ljmp *-0x620001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255,194 // inc %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_store_a8_hsw_8bit .globl _sk_store_a8_hsw_8bit FUNCTION(_sk_store_a8_hsw_8bit) _sk_store_a8_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 196,226,125,0,21,143,14,0,0 // vpshufb 0xe8f(%rip),%ymm0,%ymm2 # 1400 <_sk_xor__hsw_8bit+0x1c9> .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2 .byte 77,133,201 // test %r9,%r9 .byte 117,19 // jne 58f <_sk_store_a8_hsw_8bit+0x3f> .byte 196,226,105,0,21,187,16,0,0 // vpshufb 0x10bb(%rip),%xmm2,%xmm2 # 1640 <_sk_xor__hsw_8bit+0x409> .byte 196,161,121,214,20,2 // vmovq %xmm2,(%rdx,%r8,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 119,239 // ja 58b <_sk_store_a8_hsw_8bit+0x3b> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,85,0,0,0 // lea 0x55(%rip),%rcx # 5fc <_sk_store_a8_hsw_8bit+0xac> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 196,163,121,20,20,2,0 // vpextrb $0x0,%xmm2,(%rdx,%r8,1) .byte 235,210 // jmp 58b <_sk_store_a8_hsw_8bit+0x3b> .byte 196,163,121,20,84,2,2,4 // vpextrb $0x4,%xmm2,0x2(%rdx,%r8,1) .byte 196,226,105,0,21,86,16,0,0 // vpshufb 0x1056(%rip),%xmm2,%xmm2 # 1620 <_sk_xor__hsw_8bit+0x3e9> .byte 196,163,121,21,20,2,0 // vpextrw $0x0,%xmm2,(%rdx,%r8,1) .byte 235,184 // jmp 58b <_sk_store_a8_hsw_8bit+0x3b> .byte 196,163,121,20,84,2,6,12 // vpextrb $0xc,%xmm2,0x6(%rdx,%r8,1) .byte 196,163,121,20,84,2,5,10 // vpextrb $0xa,%xmm2,0x5(%rdx,%r8,1) .byte 196,163,121,20,84,2,4,8 // vpextrb $0x8,%xmm2,0x4(%rdx,%r8,1) .byte 196,226,105,0,21,60,16,0,0 // vpshufb 0x103c(%rip),%xmm2,%xmm2 # 1630 <_sk_xor__hsw_8bit+0x3f9> .byte 196,161,121,126,20,2 // vmovd %xmm2,(%rdx,%r8,1) .byte 235,143 // jmp 58b <_sk_store_a8_hsw_8bit+0x3b> .byte 180,255 // mov $0xff,%ah .byte 255 // (bad) .byte 255,197 // inc %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 189,255,255,255,239 // mov $0xefffffff,%ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) .byte 255 // (bad) .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_g8_hsw_8bit .globl _sk_load_g8_hsw_8bit FUNCTION(_sk_load_g8_hsw_8bit) _sk_load_g8_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,50 // jne 667 <_sk_load_g8_hsw_8bit+0x4f> .byte 196,162,121,48,4,2 // vpmovzxbw (%rdx,%r8,1),%xmm0 .byte 197,249,219,5,13,16,0,0 // vpand 0x100d(%rip),%xmm0,%xmm0 # 1650 <_sk_xor__hsw_8bit+0x419> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 196,226,125,88,21,167,12,0,0 // vpbroadcastd 0xca7(%rip),%ymm2 # 12f8 <_sk_xor__hsw_8bit+0xc1> .byte 196,226,125,64,194 // vpmulld %ymm2,%ymm0,%ymm0 .byte 196,226,125,88,21,157,12,0,0 // vpbroadcastd 0xc9d(%rip),%ymm2 # 12fc <_sk_xor__hsw_8bit+0xc5> .byte 197,253,235,194 // vpor %ymm2,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 119,195 // ja 63b <_sk_load_g8_hsw_8bit+0x23> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,121,0,0,0 // lea 0x79(%rip),%rcx # 6fc <_sk_load_g8_hsw_8bit+0xe4> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 .byte 235,164 // jmp 63b <_sk_load_g8_hsw_8bit+0x23> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,121,2,194,1 // vpblendd $0x1,%xmm2,%xmm0,%xmm0 .byte 233,124,255,255,255 // jmpq 63b <_sk_load_g8_hsw_8bit+0x23> .byte 66,15,182,68,2,6 // movzbl 0x6(%rdx,%r8,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 .byte 66,15,182,68,2,5 // movzbl 0x5(%rdx,%r8,1),%eax .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0 .byte 66,15,182,68,2,4 // movzbl 0x4(%rdx,%r8,1),%eax .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0 .byte 196,161,121,110,20,2 // vmovd (%rdx,%r8,1),%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,105,2,192,12 // vpblendd $0xc,%xmm0,%xmm2,%xmm0 .byte 233,65,255,255,255 // jmpq 63b <_sk_load_g8_hsw_8bit+0x23> .byte 102,144 // xchg %ax,%ax .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,221 // callq ffffffffde00070c <_sk_xor__hsw_8bit+0xffffffffddfff4d5> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_g8_dst_hsw_8bit .globl _sk_load_g8_dst_hsw_8bit FUNCTION(_sk_load_g8_dst_hsw_8bit) _sk_load_g8_dst_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,50 // jne 767 <_sk_load_g8_dst_hsw_8bit+0x4f> .byte 196,162,121,48,12,2 // vpmovzxbw (%rdx,%r8,1),%xmm1 .byte 197,241,219,13,29,15,0,0 // vpand 0xf1d(%rip),%xmm1,%xmm1 # 1660 <_sk_xor__hsw_8bit+0x429> .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1 .byte 196,226,125,88,21,175,11,0,0 // vpbroadcastd 0xbaf(%rip),%ymm2 # 1300 <_sk_xor__hsw_8bit+0xc9> .byte 196,226,117,64,202 // vpmulld %ymm2,%ymm1,%ymm1 .byte 196,226,125,88,21,165,11,0,0 // vpbroadcastd 0xba5(%rip),%ymm2 # 1304 <_sk_xor__hsw_8bit+0xcd> .byte 197,245,235,202 // vpor %ymm2,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 119,195 // ja 73b <_sk_load_g8_dst_hsw_8bit+0x23> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,121,0,0,0 // lea 0x79(%rip),%rcx # 7fc <_sk_load_g8_dst_hsw_8bit+0xe4> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 235,164 // jmp 73b <_sk_load_g8_dst_hsw_8bit+0x23> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,241,196,200,2 // vpinsrw $0x2,%eax,%xmm1,%xmm1 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,113,2,202,1 // vpblendd $0x1,%xmm2,%xmm1,%xmm1 .byte 233,124,255,255,255 // jmpq 73b <_sk_load_g8_dst_hsw_8bit+0x23> .byte 66,15,182,68,2,6 // movzbl 0x6(%rdx,%r8,1),%eax .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,241,196,200,6 // vpinsrw $0x6,%eax,%xmm1,%xmm1 .byte 66,15,182,68,2,5 // movzbl 0x5(%rdx,%r8,1),%eax .byte 197,241,196,200,5 // vpinsrw $0x5,%eax,%xmm1,%xmm1 .byte 66,15,182,68,2,4 // movzbl 0x4(%rdx,%r8,1),%eax .byte 197,241,196,200,4 // vpinsrw $0x4,%eax,%xmm1,%xmm1 .byte 196,161,121,110,20,2 // vmovd (%rdx,%r8,1),%xmm2 .byte 196,226,121,48,210 // vpmovzxbw %xmm2,%xmm2 .byte 196,227,105,2,201,12 // vpblendd $0xc,%xmm1,%xmm2,%xmm1 .byte 233,65,255,255,255 // jmpq 73b <_sk_load_g8_dst_hsw_8bit+0x23> .byte 102,144 // xchg %ax,%ax .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,221 // callq ffffffffde00080c <_sk_xor__hsw_8bit+0xffffffffddfff5d5> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_srcover_rgba_8888_hsw_8bit .globl _sk_srcover_rgba_8888_hsw_8bit FUNCTION(_sk_srcover_rgba_8888_hsw_8bit) _sk_srcover_rgba_8888_hsw_8bit: .byte 76,99,15 // movslq (%rdi),%r9 .byte 76,139,71,16 // mov 0x10(%rdi),%r8 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,80,8 // movslq 0x8(%rax),%rdx .byte 72,99,79,8 // movslq 0x8(%rdi),%rcx .byte 72,15,175,202 // imul %rdx,%rcx .byte 72,193,225,2 // shl $0x2,%rcx .byte 72,3,8 // add (%rax),%rcx .byte 74,141,4,137 // lea (%rcx,%r9,4),%rax .byte 77,133,192 // test %r8,%r8 .byte 117,108 // jne 8a9 <_sk_srcover_rgba_8888_hsw_8bit+0x91> .byte 197,254,111,16 // vmovdqu (%rax),%ymm2 .byte 196,226,125,0,29,214,11,0,0 // vpshufb 0xbd6(%rip),%ymm0,%ymm3 # 1420 <_sk_xor__hsw_8bit+0x1e9> .byte 196,226,125,48,226 // vpmovzxbw %xmm2,%ymm4 .byte 196,227,125,57,213,1 // vextracti128 $0x1,%ymm2,%xmm5 .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5 .byte 196,226,125,48,243 // vpmovzxbw %xmm3,%ymm6 .byte 196,227,125,57,219,1 // vextracti128 $0x1,%ymm3,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 197,213,213,219 // vpmullw %ymm3,%ymm5,%ymm3 .byte 197,221,213,246 // vpmullw %ymm6,%ymm4,%ymm6 .byte 197,205,253,228 // vpaddw %ymm4,%ymm6,%ymm4 .byte 197,229,253,221 // vpaddw %ymm5,%ymm3,%ymm3 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4 .byte 196,227,93,56,235,1 // vinserti128 $0x1,%xmm3,%ymm4,%ymm5 .byte 196,227,93,70,219,49 // vperm2i128 $0x31,%ymm3,%ymm4,%ymm3 .byte 197,213,103,219 // vpackuswb %ymm3,%ymm5,%ymm3 .byte 197,237,248,211 // vpsubb %ymm3,%ymm2,%ymm2 .byte 197,237,252,208 // vpaddb %ymm0,%ymm2,%ymm2 .byte 77,133,192 // test %r8,%r8 .byte 117,49 // jne 8d2 <_sk_srcover_rgba_8888_hsw_8bit+0xba> .byte 197,254,127,16 // vmovdqu %ymm2,(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,210 // vmovq %rdx,%xmm2 .byte 196,226,125,33,210 // vpmovsxbd %xmm2,%ymm2 .byte 196,226,109,140,16 // vpmaskmovd (%rax),%ymm2,%ymm2 .byte 233,111,255,255,255 // jmpq 841 <_sk_srcover_rgba_8888_hsw_8bit+0x29> .byte 185,8,0,0,0 // mov $0x8,%ecx .byte 68,41,193 // sub %r8d,%ecx .byte 192,225,3 // shl $0x3,%cl .byte 72,199,194,255,255,255,255 // mov $0xffffffffffffffff,%rdx .byte 72,211,234 // shr %cl,%rdx .byte 196,225,249,110,218 // vmovq %rdx,%xmm3 .byte 196,226,125,33,219 // vpmovsxbd %xmm3,%ymm3 .byte 196,226,101,142,16 // vpmaskmovd %ymm2,%ymm3,(%rax) .byte 235,173 // jmp 8a5 <_sk_srcover_rgba_8888_hsw_8bit+0x8d> HIDDEN _sk_scale_1_float_hsw_8bit .globl _sk_scale_1_float_hsw_8bit FUNCTION(_sk_scale_1_float_hsw_8bit) _sk_scale_1_float_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,250,16,16 // vmovss (%rax),%xmm2 .byte 197,234,89,21,2,10,0,0 // vmulss 0xa02(%rip),%xmm2,%xmm2 # 1308 <_sk_xor__hsw_8bit+0xd1> .byte 197,250,44,194 // vcvttss2si %xmm2,%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,125,120,210 // vpbroadcastb %xmm2,%ymm2 .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,237,219,21,21,11,0,0 // vpand 0xb15(%rip),%ymm2,%ymm2 # 1440 <_sk_xor__hsw_8bit+0x209> .byte 197,237,213,224 // vpmullw %ymm0,%ymm2,%ymm4 .byte 197,237,213,211 // vpmullw %ymm3,%ymm2,%ymm2 .byte 197,237,253,211 // vpaddw %ymm3,%ymm2,%ymm2 .byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_hsw_8bit .globl _sk_scale_u8_hsw_8bit FUNCTION(_sk_scale_u8_hsw_8bit) _sk_scale_u8_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,106 // jne 9e0 <_sk_scale_u8_hsw_8bit+0x87> .byte 196,162,121,48,20,2 // vpmovzxbw (%rdx,%r8,1),%xmm2 .byte 197,233,219,21,236,12,0,0 // vpand 0xcec(%rip),%xmm2,%xmm2 # 1670 <_sk_xor__hsw_8bit+0x439> .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2 .byte 196,226,109,0,21,206,10,0,0 // vpshufb 0xace(%rip),%ymm2,%ymm2 # 1460 <_sk_xor__hsw_8bit+0x229> .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,226 // vpmovzxbw %xmm2,%ymm4 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,208 // vpmullw %ymm0,%ymm2,%ymm2 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,237,253,192 // vpaddw %ymm0,%ymm2,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,211,8 // vpsrlw $0x8,%ymm3,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 119,139 // ja 97c <_sk_scale_u8_hsw_8bit+0x23> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,124,0,0,0 // lea 0x7c(%rip),%rcx # a78 <_sk_scale_u8_hsw_8bit+0x11f> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 233,105,255,255,255 // jmpq 97c <_sk_scale_u8_hsw_8bit+0x23> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 197,233,196,208,2 // vpinsrw $0x2,%eax,%xmm2,%xmm2 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 197,249,110,216 // vmovd %eax,%xmm3 .byte 196,226,121,48,219 // vpmovzxbw %xmm3,%xmm3 .byte 196,227,105,2,211,1 // vpblendd $0x1,%xmm3,%xmm2,%xmm2 .byte 233,65,255,255,255 // jmpq 97c <_sk_scale_u8_hsw_8bit+0x23> .byte 66,15,182,68,2,6 // movzbl 0x6(%rdx,%r8,1),%eax .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 197,233,196,208,6 // vpinsrw $0x6,%eax,%xmm2,%xmm2 .byte 66,15,182,68,2,5 // movzbl 0x5(%rdx,%r8,1),%eax .byte 197,233,196,208,5 // vpinsrw $0x5,%eax,%xmm2,%xmm2 .byte 66,15,182,68,2,4 // movzbl 0x4(%rdx,%r8,1),%eax .byte 197,233,196,208,4 // vpinsrw $0x4,%eax,%xmm2,%xmm2 .byte 196,161,121,110,28,2 // vmovd (%rdx,%r8,1),%xmm3 .byte 196,226,121,48,219 // vpmovzxbw %xmm3,%xmm3 .byte 196,227,97,2,210,12 // vpblendd $0xc,%xmm2,%xmm3,%xmm2 .byte 233,6,255,255,255 // jmpq 97c <_sk_scale_u8_hsw_8bit+0x23> .byte 102,144 // xchg %ax,%ax .byte 141 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,221 // callq ffffffffde000a88 <_sk_xor__hsw_8bit+0xffffffffddfff851> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_lerp_1_float_hsw_8bit .globl _sk_lerp_1_float_hsw_8bit FUNCTION(_sk_lerp_1_float_hsw_8bit) _sk_lerp_1_float_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,250,16,16 // vmovss (%rax),%xmm2 .byte 197,234,89,21,106,8,0,0 // vmulss 0x86a(%rip),%xmm2,%xmm2 # 130c <_sk_xor__hsw_8bit+0xd5> .byte 197,250,44,194 // vcvttss2si %xmm2,%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 196,226,125,120,210 // vpbroadcastb %xmm2,%ymm2 .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,237,219,37,185,9,0,0 // vpand 0x9b9(%rip),%ymm2,%ymm4 # 1480 <_sk_xor__hsw_8bit+0x249> .byte 197,221,213,232 // vpmullw %ymm0,%ymm4,%ymm5 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,213,253,192 // vpaddw %ymm0,%ymm5,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,224,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm4 .byte 196,227,101,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm3,%ymm0 .byte 197,221,103,192 // vpackuswb %ymm0,%ymm4,%ymm0 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 197,237,239,211 // vpxor %ymm3,%ymm2,%ymm2 .byte 196,226,125,48,217 // vpmovzxbw %xmm1,%ymm3 .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,212 // vpmullw %ymm4,%ymm2,%ymm2 .byte 197,213,213,235 // vpmullw %ymm3,%ymm5,%ymm5 .byte 197,213,253,219 // vpaddw %ymm3,%ymm5,%ymm3 .byte 197,237,253,212 // vpaddw %ymm4,%ymm2,%ymm2 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4 .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2 .byte 197,221,103,210 // vpackuswb %ymm2,%ymm4,%ymm2 .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_hsw_8bit .globl _sk_lerp_u8_hsw_8bit FUNCTION(_sk_lerp_u8_hsw_8bit) _sk_lerp_u8_hsw_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 15,133,192,0,0,0 // jne c2c <_sk_lerp_u8_hsw_8bit+0xe1> .byte 196,162,121,48,20,2 // vpmovzxbw (%rdx,%r8,1),%xmm2 .byte 197,233,219,21,6,11,0,0 // vpand 0xb06(%rip),%xmm2,%xmm2 # 1680 <_sk_xor__hsw_8bit+0x449> .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2 .byte 196,226,109,0,21,24,9,0,0 // vpshufb 0x918(%rip),%ymm2,%ymm2 # 14a0 <_sk_xor__hsw_8bit+0x269> .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,226 // vpmovzxbw %xmm2,%ymm4 .byte 196,227,125,57,213,1 // vextracti128 $0x1,%ymm2,%xmm5 .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5 .byte 197,213,213,232 // vpmullw %ymm0,%ymm5,%ymm5 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,213,253,192 // vpaddw %ymm0,%ymm5,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,224,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm4 .byte 196,227,101,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm3,%ymm0 .byte 197,221,103,192 // vpackuswb %ymm0,%ymm4,%ymm0 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 197,237,239,211 // vpxor %ymm3,%ymm2,%ymm2 .byte 196,226,125,48,217 // vpmovzxbw %xmm1,%ymm3 .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,212 // vpmullw %ymm4,%ymm2,%ymm2 .byte 197,213,213,235 // vpmullw %ymm3,%ymm5,%ymm5 .byte 197,213,253,219 // vpaddw %ymm3,%ymm5,%ymm3 .byte 197,237,253,212 // vpaddw %ymm4,%ymm2,%ymm2 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4 .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2 .byte 197,221,103,210 // vpackuswb %ymm2,%ymm4,%ymm2 .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,7 // and $0x7,%r9b .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b .byte 15,135,49,255,255,255 // ja b72 <_sk_lerp_u8_hsw_8bit+0x27> .byte 65,15,182,193 // movzbl %r9b,%eax .byte 72,141,13,124,0,0,0 // lea 0x7c(%rip),%rcx # cc8 <_sk_lerp_u8_hsw_8bit+0x17d> .byte 72,99,4,129 // movslq (%rcx,%rax,4),%rax .byte 72,1,200 // add %rcx,%rax .byte 255,224 // jmpq *%rax .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 197,249,110,208 // vmovd %eax,%xmm2 .byte 233,15,255,255,255 // jmpq b72 <_sk_lerp_u8_hsw_8bit+0x27> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 197,233,196,208,2 // vpinsrw $0x2,%eax,%xmm2,%xmm2 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 197,249,110,216 // vmovd %eax,%xmm3 .byte 196,226,121,48,219 // vpmovzxbw %xmm3,%xmm3 .byte 196,227,105,2,211,1 // vpblendd $0x1,%xmm3,%xmm2,%xmm2 .byte 233,231,254,255,255 // jmpq b72 <_sk_lerp_u8_hsw_8bit+0x27> .byte 66,15,182,68,2,6 // movzbl 0x6(%rdx,%r8,1),%eax .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 197,233,196,208,6 // vpinsrw $0x6,%eax,%xmm2,%xmm2 .byte 66,15,182,68,2,5 // movzbl 0x5(%rdx,%r8,1),%eax .byte 197,233,196,208,5 // vpinsrw $0x5,%eax,%xmm2,%xmm2 .byte 66,15,182,68,2,4 // movzbl 0x4(%rdx,%r8,1),%eax .byte 197,233,196,208,4 // vpinsrw $0x4,%eax,%xmm2,%xmm2 .byte 196,161,121,110,28,2 // vmovd (%rdx,%r8,1),%xmm3 .byte 196,226,121,48,219 // vpmovzxbw %xmm3,%xmm3 .byte 196,227,97,2,210,12 // vpblendd $0xc,%xmm2,%xmm3,%xmm2 .byte 233,172,254,255,255 // jmpq b72 <_sk_lerp_u8_hsw_8bit+0x27> .byte 102,144 // xchg %ax,%ax .byte 141 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 232,255,255,255,221 // callq ffffffffde000cd8 <_sk_xor__hsw_8bit+0xffffffffddfffaa1> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_move_src_dst_hsw_8bit .globl _sk_move_src_dst_hsw_8bit FUNCTION(_sk_move_src_dst_hsw_8bit) _sk_move_src_dst_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_hsw_8bit .globl _sk_move_dst_src_hsw_8bit FUNCTION(_sk_move_dst_src_hsw_8bit) _sk_move_dst_src_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,193 // vmovaps %ymm1,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_hsw_8bit .globl _sk_black_color_hsw_8bit FUNCTION(_sk_black_color_hsw_8bit) _sk_black_color_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,226,125,25,5,145,9,0,0 // vbroadcastsd 0x991(%rip),%ymm0 # 1690 <_sk_xor__hsw_8bit+0x459> .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_hsw_8bit .globl _sk_white_color_hsw_8bit FUNCTION(_sk_white_color_hsw_8bit) _sk_white_color_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_hsw_8bit .globl _sk_clear_hsw_8bit FUNCTION(_sk_clear_hsw_8bit) _sk_clear_hsw_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_hsw_8bit .globl _sk_srcatop_hsw_8bit FUNCTION(_sk_srcatop_hsw_8bit) _sk_srcatop_hsw_8bit: .byte 197,253,111,21,167,7,0,0 // vmovdqa 0x7a7(%rip),%ymm2 # 14c0 <_sk_xor__hsw_8bit+0x289> .byte 196,226,117,0,218 // vpshufb %ymm2,%ymm1,%ymm3 .byte 196,226,125,48,224 // vpmovzxbw %xmm0,%ymm4 .byte 196,227,125,57,197,1 // vextracti128 $0x1,%ymm0,%xmm5 .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5 .byte 196,226,125,48,243 // vpmovzxbw %xmm3,%ymm6 .byte 196,227,125,57,219,1 // vextracti128 $0x1,%ymm3,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 197,229,213,221 // vpmullw %ymm5,%ymm3,%ymm3 .byte 197,205,213,244 // vpmullw %ymm4,%ymm6,%ymm6 .byte 197,205,253,228 // vpaddw %ymm4,%ymm6,%ymm4 .byte 197,229,253,221 // vpaddw %ymm5,%ymm3,%ymm3 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4 .byte 196,227,93,56,235,1 // vinserti128 $0x1,%xmm3,%ymm4,%ymm5 .byte 196,227,93,70,219,49 // vperm2i128 $0x31,%ymm3,%ymm4,%ymm3 .byte 197,213,103,219 // vpackuswb %ymm3,%ymm5,%ymm3 .byte 196,226,125,0,194 // vpshufb %ymm2,%ymm0,%ymm0 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 197,253,239,194 // vpxor %ymm2,%ymm0,%ymm0 .byte 196,226,125,48,209 // vpmovzxbw %xmm1,%ymm2 .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 196,226,125,48,232 // vpmovzxbw %xmm0,%ymm5 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,253,213,196 // vpmullw %ymm4,%ymm0,%ymm0 .byte 197,213,213,234 // vpmullw %ymm2,%ymm5,%ymm5 .byte 197,213,253,210 // vpaddw %ymm2,%ymm5,%ymm2 .byte 197,253,253,196 // vpaddw %ymm4,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,224,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm4 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,221,103,192 // vpackuswb %ymm0,%ymm4,%ymm0 .byte 197,253,252,195 // vpaddb %ymm3,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_hsw_8bit .globl _sk_dstatop_hsw_8bit FUNCTION(_sk_dstatop_hsw_8bit) _sk_dstatop_hsw_8bit: .byte 197,253,111,21,17,7,0,0 // vmovdqa 0x711(%rip),%ymm2 # 14e0 <_sk_xor__hsw_8bit+0x2a9> .byte 196,226,125,0,218 // vpshufb %ymm2,%ymm0,%ymm3 .byte 196,226,125,48,225 // vpmovzxbw %xmm1,%ymm4 .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5 .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5 .byte 196,226,125,48,243 // vpmovzxbw %xmm3,%ymm6 .byte 196,227,125,57,219,1 // vextracti128 $0x1,%ymm3,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 197,229,213,221 // vpmullw %ymm5,%ymm3,%ymm3 .byte 197,205,213,244 // vpmullw %ymm4,%ymm6,%ymm6 .byte 197,205,253,228 // vpaddw %ymm4,%ymm6,%ymm4 .byte 197,229,253,221 // vpaddw %ymm5,%ymm3,%ymm3 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4 .byte 196,227,93,56,235,1 // vinserti128 $0x1,%xmm3,%ymm4,%ymm5 .byte 196,227,93,70,219,49 // vperm2i128 $0x31,%ymm3,%ymm4,%ymm3 .byte 197,213,103,219 // vpackuswb %ymm3,%ymm5,%ymm3 .byte 196,226,117,0,210 // vpshufb %ymm2,%ymm1,%ymm2 .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4 .byte 197,237,239,212 // vpxor %ymm4,%ymm2,%ymm2 .byte 196,226,125,48,224 // vpmovzxbw %xmm0,%ymm4 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,208 // vpmullw %ymm0,%ymm2,%ymm2 .byte 197,213,213,236 // vpmullw %ymm4,%ymm5,%ymm5 .byte 197,213,253,228 // vpaddw %ymm4,%ymm5,%ymm4 .byte 197,237,253,192 // vpaddw %ymm0,%ymm2,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,212,8 // vpsrlw $0x8,%ymm4,%ymm2 .byte 196,227,109,56,224,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm4 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,221,103,192 // vpackuswb %ymm0,%ymm4,%ymm0 .byte 197,253,252,195 // vpaddb %ymm3,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_hsw_8bit .globl _sk_srcin_hsw_8bit FUNCTION(_sk_srcin_hsw_8bit) _sk_srcin_hsw_8bit: .byte 196,226,117,0,21,122,6,0,0 // vpshufb 0x67a(%rip),%ymm1,%ymm2 # 1500 <_sk_xor__hsw_8bit+0x2c9> .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,226 // vpmovzxbw %xmm2,%ymm4 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,208 // vpmullw %ymm0,%ymm2,%ymm2 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,237,253,192 // vpaddw %ymm0,%ymm2,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,211,8 // vpsrlw $0x8,%ymm3,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_hsw_8bit .globl _sk_dstin_hsw_8bit FUNCTION(_sk_dstin_hsw_8bit) _sk_dstin_hsw_8bit: .byte 196,226,125,0,5,67,6,0,0 // vpshufb 0x643(%rip),%ymm0,%ymm0 # 1520 <_sk_xor__hsw_8bit+0x2e9> .byte 196,226,125,48,209 // vpmovzxbw %xmm1,%ymm2 .byte 196,227,125,57,203,1 // vextracti128 $0x1,%ymm1,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 196,226,125,48,224 // vpmovzxbw %xmm0,%ymm4 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0 .byte 197,221,213,226 // vpmullw %ymm2,%ymm4,%ymm4 .byte 197,221,253,210 // vpaddw %ymm2,%ymm4,%ymm2 .byte 197,253,253,195 // vpaddw %ymm3,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_hsw_8bit .globl _sk_srcout_hsw_8bit FUNCTION(_sk_srcout_hsw_8bit) _sk_srcout_hsw_8bit: .byte 196,226,117,0,21,12,6,0,0 // vpshufb 0x60c(%rip),%ymm1,%ymm2 # 1540 <_sk_xor__hsw_8bit+0x309> .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 .byte 197,237,239,211 // vpxor %ymm3,%ymm2,%ymm2 .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,226 // vpmovzxbw %xmm2,%ymm4 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,208 // vpmullw %ymm0,%ymm2,%ymm2 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,237,253,192 // vpaddw %ymm0,%ymm2,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,211,8 // vpsrlw $0x8,%ymm3,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_hsw_8bit .globl _sk_dstout_hsw_8bit FUNCTION(_sk_dstout_hsw_8bit) _sk_dstout_hsw_8bit: .byte 196,226,125,0,5,205,5,0,0 // vpshufb 0x5cd(%rip),%ymm0,%ymm0 # 1560 <_sk_xor__hsw_8bit+0x329> .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 197,253,239,194 // vpxor %ymm2,%ymm0,%ymm0 .byte 196,226,125,48,209 // vpmovzxbw %xmm1,%ymm2 .byte 196,227,125,57,203,1 // vextracti128 $0x1,%ymm1,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 196,226,125,48,224 // vpmovzxbw %xmm0,%ymm4 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0 .byte 197,221,213,226 // vpmullw %ymm2,%ymm4,%ymm4 .byte 197,221,253,210 // vpaddw %ymm2,%ymm4,%ymm2 .byte 197,253,253,195 // vpaddw %ymm3,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_hsw_8bit .globl _sk_srcover_hsw_8bit FUNCTION(_sk_srcover_hsw_8bit) _sk_srcover_hsw_8bit: .byte 196,226,125,0,21,142,5,0,0 // vpshufb 0x58e(%rip),%ymm0,%ymm2 # 1580 <_sk_xor__hsw_8bit+0x349> .byte 196,226,125,48,217 // vpmovzxbw %xmm1,%ymm3 .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,212 // vpmullw %ymm4,%ymm2,%ymm2 .byte 197,213,213,235 // vpmullw %ymm3,%ymm5,%ymm5 .byte 197,213,253,219 // vpaddw %ymm3,%ymm5,%ymm3 .byte 197,237,253,212 // vpaddw %ymm4,%ymm2,%ymm2 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4 .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2 .byte 197,221,103,210 // vpackuswb %ymm2,%ymm4,%ymm2 .byte 197,245,252,192 // vpaddb %ymm0,%ymm1,%ymm0 .byte 197,253,248,194 // vpsubb %ymm2,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_hsw_8bit .globl _sk_dstover_hsw_8bit FUNCTION(_sk_dstover_hsw_8bit) _sk_dstover_hsw_8bit: .byte 196,226,117,0,21,79,5,0,0 // vpshufb 0x54f(%rip),%ymm1,%ymm2 # 15a0 <_sk_xor__hsw_8bit+0x369> .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3 .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 197,237,213,212 // vpmullw %ymm4,%ymm2,%ymm2 .byte 197,213,213,235 // vpmullw %ymm3,%ymm5,%ymm5 .byte 197,213,253,219 // vpaddw %ymm3,%ymm5,%ymm3 .byte 197,237,253,212 // vpaddw %ymm4,%ymm2,%ymm2 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4 .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2 .byte 197,221,103,210 // vpackuswb %ymm2,%ymm4,%ymm2 .byte 197,245,252,192 // vpaddb %ymm0,%ymm1,%ymm0 .byte 197,253,248,194 // vpsubb %ymm2,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_hsw_8bit .globl _sk_modulate_hsw_8bit FUNCTION(_sk_modulate_hsw_8bit) _sk_modulate_hsw_8bit: .byte 196,226,125,48,208 // vpmovzxbw %xmm0,%ymm2 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 196,226,125,48,217 // vpmovzxbw %xmm1,%ymm3 .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 197,221,213,224 // vpmullw %ymm0,%ymm4,%ymm4 .byte 197,229,213,218 // vpmullw %ymm2,%ymm3,%ymm3 .byte 197,229,253,210 // vpaddw %ymm2,%ymm3,%ymm2 .byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,216,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm3 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,229,103,192 // vpackuswb %ymm0,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_hsw_8bit .globl _sk_multiply_hsw_8bit FUNCTION(_sk_multiply_hsw_8bit) _sk_multiply_hsw_8bit: .byte 197,253,111,37,195,4,0,0 // vmovdqa 0x4c3(%rip),%ymm4 # 15c0 <_sk_xor__hsw_8bit+0x389> .byte 196,226,117,0,212 // vpshufb %ymm4,%ymm1,%ymm2 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 197,237,239,245 // vpxor %ymm5,%ymm2,%ymm6 .byte 196,226,125,48,208 // vpmovzxbw %xmm0,%ymm2 .byte 196,227,125,57,195,1 // vextracti128 $0x1,%ymm0,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 196,226,125,48,254 // vpmovzxbw %xmm6,%ymm7 .byte 196,227,125,57,246,1 // vextracti128 $0x1,%ymm6,%xmm6 .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6 .byte 197,205,213,243 // vpmullw %ymm3,%ymm6,%ymm6 .byte 197,197,213,250 // vpmullw %ymm2,%ymm7,%ymm7 .byte 197,197,253,250 // vpaddw %ymm2,%ymm7,%ymm7 .byte 197,205,253,243 // vpaddw %ymm3,%ymm6,%ymm6 .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6 .byte 197,197,113,215,8 // vpsrlw $0x8,%ymm7,%ymm7 .byte 196,99,69,56,198,1 // vinserti128 $0x1,%xmm6,%ymm7,%ymm8 .byte 196,227,69,70,246,49 // vperm2i128 $0x31,%ymm6,%ymm7,%ymm6 .byte 197,189,103,246 // vpackuswb %ymm6,%ymm8,%ymm6 .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0 .byte 197,253,239,197 // vpxor %ymm5,%ymm0,%ymm0 .byte 196,226,125,48,225 // vpmovzxbw %xmm1,%ymm4 .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5 .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5 .byte 196,226,125,48,248 // vpmovzxbw %xmm0,%ymm7 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,253,213,197 // vpmullw %ymm5,%ymm0,%ymm0 .byte 197,197,213,252 // vpmullw %ymm4,%ymm7,%ymm7 .byte 197,197,253,252 // vpaddw %ymm4,%ymm7,%ymm7 .byte 197,253,253,197 // vpaddw %ymm5,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,197,113,215,8 // vpsrlw $0x8,%ymm7,%ymm7 .byte 196,99,69,56,192,1 // vinserti128 $0x1,%xmm0,%ymm7,%ymm8 .byte 196,227,69,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm7,%ymm0 .byte 197,189,103,192 // vpackuswb %ymm0,%ymm8,%ymm0 .byte 197,253,252,198 // vpaddb %ymm6,%ymm0,%ymm0 .byte 197,213,213,235 // vpmullw %ymm3,%ymm5,%ymm5 .byte 197,221,213,226 // vpmullw %ymm2,%ymm4,%ymm4 .byte 197,221,253,210 // vpaddw %ymm2,%ymm4,%ymm2 .byte 197,213,253,219 // vpaddw %ymm3,%ymm5,%ymm3 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,227,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm4 .byte 196,227,109,70,211,49 // vperm2i128 $0x31,%ymm3,%ymm2,%ymm2 .byte 197,221,103,210 // vpackuswb %ymm2,%ymm4,%ymm2 .byte 197,253,252,194 // vpaddb %ymm2,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_hsw_8bit .globl _sk_screen_hsw_8bit FUNCTION(_sk_screen_hsw_8bit) _sk_screen_hsw_8bit: .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 .byte 197,253,239,210 // vpxor %ymm2,%ymm0,%ymm2 .byte 196,226,125,48,218 // vpmovzxbw %xmm2,%ymm3 .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2 .byte 196,226,125,48,225 // vpmovzxbw %xmm1,%ymm4 .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5 .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5 .byte 197,213,213,234 // vpmullw %ymm2,%ymm5,%ymm5 .byte 197,221,213,227 // vpmullw %ymm3,%ymm4,%ymm4 .byte 197,221,253,219 // vpaddw %ymm3,%ymm4,%ymm3 .byte 197,213,253,210 // vpaddw %ymm2,%ymm5,%ymm2 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4 .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2 .byte 197,221,103,210 // vpackuswb %ymm2,%ymm4,%ymm2 .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__hsw_8bit .globl _sk_xor__hsw_8bit FUNCTION(_sk_xor__hsw_8bit) _sk_xor__hsw_8bit: .byte 197,253,111,21,161,3,0,0 // vmovdqa 0x3a1(%rip),%ymm2 # 15e0 <_sk_xor__hsw_8bit+0x3a9> .byte 196,226,117,0,218 // vpshufb %ymm2,%ymm1,%ymm3 .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4 .byte 197,229,239,220 // vpxor %ymm4,%ymm3,%ymm3 .byte 196,226,125,48,232 // vpmovzxbw %xmm0,%ymm5 .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6 .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6 .byte 196,226,125,48,251 // vpmovzxbw %xmm3,%ymm7 .byte 196,227,125,57,219,1 // vextracti128 $0x1,%ymm3,%xmm3 .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3 .byte 197,229,213,222 // vpmullw %ymm6,%ymm3,%ymm3 .byte 197,197,213,253 // vpmullw %ymm5,%ymm7,%ymm7 .byte 197,197,253,237 // vpaddw %ymm5,%ymm7,%ymm5 .byte 197,229,253,222 // vpaddw %ymm6,%ymm3,%ymm3 .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3 .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5 .byte 196,227,85,56,243,1 // vinserti128 $0x1,%xmm3,%ymm5,%ymm6 .byte 196,227,85,70,219,49 // vperm2i128 $0x31,%ymm3,%ymm5,%ymm3 .byte 197,205,103,219 // vpackuswb %ymm3,%ymm6,%ymm3 .byte 196,226,125,0,194 // vpshufb %ymm2,%ymm0,%ymm0 .byte 197,253,239,196 // vpxor %ymm4,%ymm0,%ymm0 .byte 196,226,125,48,209 // vpmovzxbw %xmm1,%ymm2 .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 196,226,125,48,232 // vpmovzxbw %xmm0,%ymm5 .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 197,253,213,196 // vpmullw %ymm4,%ymm0,%ymm0 .byte 197,213,213,234 // vpmullw %ymm2,%ymm5,%ymm5 .byte 197,213,253,210 // vpaddw %ymm2,%ymm5,%ymm2 .byte 197,253,253,196 // vpaddw %ymm4,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2 .byte 196,227,109,56,224,1 // vinserti128 $0x1,%xmm0,%ymm2,%ymm4 .byte 196,227,109,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm2,%ymm0 .byte 197,221,103,192 // vpackuswb %ymm0,%ymm4,%ymm0 .byte 197,253,252,195 // vpaddb %ymm3,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax BALIGN4 .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 133b <_sk_xor__hsw_8bit+0x104> .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 134f <_sk_xor__hsw_8bit+0x118> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 1353 <_sk_xor__hsw_8bit+0x11c> BALIGN32 .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 3,3 // add (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,0,0 // sldt (%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 2,1 // add (%rcx),%al .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,3,255 // or $0xff030f0c,%eax .byte 7 // (bad) .byte 255,11 // decl (%rbx) .byte 255,15 // decl (%rdi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,19 // callq *(%rbx) .byte 255,23 // callq *(%rdi) .byte 255,27 // lcall *(%rbx) .byte 255,31 // lcall *(%rdi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) .byte 255,3 // incl (%rbx) .byte 3,3 // add (%rbx),%eax .byte 3,7 // add (%rdi),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,255 // (bad) .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,4,4 // add %al,(%rsp,%rax,1) .byte 4,4 // add $0x4,%al .byte 8,8 // or %cl,(%rax) .byte 8,8 // or %cl,(%rax) .byte 12,12 // or $0xc,%al .byte 12,12 // or $0xc,%al .byte 16,16 // adc %dl,(%rax) .byte 16,16 // adc %dl,(%rax) .byte 20,20 // adc $0x14,%al .byte 20,20 // adc $0x14,%al .byte 24,24 // sbb %bl,(%rax) .byte 24,24 // sbb %bl,(%rax) .byte 28,28 // sbb $0x1c,%al .byte 28,28 // sbb $0x1c,%al .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 4,4 // add $0x4,%al .byte 4,4 // add $0x4,%al .byte 8,8 // or %cl,(%rax) .byte 8,8 // or %cl,(%rax) .byte 12,12 // or $0xc,%al .byte 12,12 // or $0xc,%al .byte 16,16 // adc %dl,(%rax) .byte 16,16 // adc %dl,(%rax) .byte 20,20 // adc $0x14,%al .byte 20,20 // adc $0x14,%al .byte 24,24 // sbb %bl,(%rax) .byte 24,24 // sbb %bl,(%rax) .byte 28,28 // sbb $0x1c,%al .byte 28,28 // sbb $0x1c,%al .byte 3,3 // add (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // .byte 0xf .byte 15 // .byte 0xf .byte 15 // .byte 0xf BALIGN16 .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,2 // add %al,(%rdx) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,2 // add %al,(%rdx) .byte 4,6 // add $0x6,%al .byte 8,10 // or %cl,(%rdx) .byte 12,14 // or $0xe,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) BALIGN8 .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh BALIGN32 HIDDEN _sk_start_pipeline_sse41_8bit .globl _sk_start_pipeline_sse41_8bit FUNCTION(_sk_start_pipeline_sse41_8bit) _sk_start_pipeline_sse41_8bit: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,56 // sub $0x38,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,247 // mov %rsi,%r15 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,197 // mov %rax,%r13 .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,168 // mov %rcx,-0x58(%rbp) .byte 73,57,207 // cmp %rcx,%r15 .byte 115,102 // jae 95 <_sk_start_pipeline_sse41_8bit+0x95> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,4 // lea 0x4(%rax),%rax .byte 72,137,69,176 // mov %rax,-0x50(%rbp) .byte 76,141,101,184 // lea -0x48(%rbp),%r12 .byte 72,57,93,176 // cmp %rbx,-0x50(%rbp) .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,125,192 // mov %r15,-0x40(%rbp) .byte 72,199,69,200,0,0,0,0 // movq $0x0,-0x38(%rbp) .byte 119,30 // ja 77 <_sk_start_pipeline_sse41_8bit+0x77> .byte 76,137,231 // mov %r12,%rdi .byte 76,137,246 // mov %r14,%rsi .byte 65,255,213 // callq *%r13 .byte 72,139,77,184 // mov -0x48(%rbp),%rcx .byte 72,141,65,4 // lea 0x4(%rcx),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 72,131,193,8 // add $0x8,%rcx .byte 72,57,217 // cmp %rbx,%rcx .byte 118,226 // jbe 59 <_sk_start_pipeline_sse41_8bit+0x59> .byte 72,137,217 // mov %rbx,%rcx .byte 72,41,193 // sub %rax,%rcx .byte 116,13 // je 8c <_sk_start_pipeline_sse41_8bit+0x8c> .byte 72,137,77,200 // mov %rcx,-0x38(%rbp) .byte 76,137,231 // mov %r12,%rdi .byte 76,137,246 // mov %r14,%rsi .byte 65,255,213 // callq *%r13 .byte 73,255,199 // inc %r15 .byte 76,59,125,168 // cmp -0x58(%rbp),%r15 .byte 117,170 // jne 3f <_sk_start_pipeline_sse41_8bit+0x3f> .byte 72,131,196,56 // add $0x38,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 195 // retq HIDDEN _sk_just_return_sse41_8bit .globl _sk_just_return_sse41_8bit FUNCTION(_sk_just_return_sse41_8bit) _sk_just_return_sse41_8bit: .byte 195 // retq HIDDEN _sk_uniform_color_sse41_8bit .globl _sk_uniform_color_sse41_8bit FUNCTION(_sk_uniform_color_sse41_8bit) _sk_uniform_color_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_sse41_8bit .globl _sk_set_rgb_sse41_8bit FUNCTION(_sk_set_rgb_sse41_8bit) _sk_set_rgb_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,21,77,14,0,0 // movss 0xe4d(%rip),%xmm2 # f0c <_sk_xor__sse41_8bit+0xa2> .byte 243,15,16,24 // movss (%rax),%xmm3 .byte 243,15,89,218 // mulss %xmm2,%xmm3 .byte 243,72,15,44,203 // cvttss2si %xmm3,%rcx .byte 243,15,16,88,4 // movss 0x4(%rax),%xmm3 .byte 243,15,89,218 // mulss %xmm2,%xmm3 .byte 243,72,15,44,211 // cvttss2si %xmm3,%rdx .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx .byte 243,15,89,80,8 // mulss 0x8(%rax),%xmm2 .byte 243,72,15,44,194 // cvttss2si %xmm2,%rax .byte 193,224,16 // shl $0x10,%eax .byte 9,208 // or %edx,%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,219,5,33,14,0,0 // pand 0xe21(%rip),%xmm0 # f20 <_sk_xor__sse41_8bit+0xb6> .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_sse41_8bit .globl _sk_premul_sse41_8bit FUNCTION(_sk_premul_sse41_8bit) _sk_premul_sse41_8bit: .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,56,0,29,28,14,0,0 // pshufb 0xe1c(%rip),%xmm3 # f30 <_sk_xor__sse41_8bit+0xc6> .byte 102,15,235,29,36,14,0,0 // por 0xe24(%rip),%xmm3 # f40 <_sk_xor__sse41_8bit+0xd6> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,56,48,211 // pmovzxbw %xmm3,%xmm2 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_sse41_8bit .globl _sk_swap_rb_sse41_8bit FUNCTION(_sk_swap_rb_sse41_8bit) _sk_swap_rb_sse41_8bit: .byte 102,15,56,0,5,239,13,0,0 // pshufb 0xdef(%rip),%xmm0 # f50 <_sk_xor__sse41_8bit+0xe6> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_sse41_8bit .globl _sk_invert_sse41_8bit FUNCTION(_sk_invert_sse41_8bit) _sk_invert_sse41_8bit: .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2 .byte 102,15,239,194 // pxor %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_load_8888_sse41_8bit .globl _sk_load_8888_sse41_8bit FUNCTION(_sk_load_8888_sse41_8bit) _sk_load_8888_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 19c <_sk_load_8888_sse41_8bit+0x2b> .byte 243,66,15,111,4,130 // movdqu (%rdx,%r8,4),%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,42 // je 1d0 <_sk_load_8888_sse41_8bit+0x5f> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 1c2 <_sk_load_8888_sse41_8bit+0x51> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,226 // jne 198 <_sk_load_8888_sse41_8bit+0x27> .byte 102,66,15,110,68,130,8 // movd 0x8(%rdx,%r8,4),%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 243,66,15,126,20,130 // movq (%rdx,%r8,4),%xmm2 .byte 102,15,58,14,194,15 // pblendw $0xf,%xmm2,%xmm0 .byte 235,200 // jmp 198 <_sk_load_8888_sse41_8bit+0x27> .byte 102,66,15,110,4,130 // movd (%rdx,%r8,4),%xmm0 .byte 235,192 // jmp 198 <_sk_load_8888_sse41_8bit+0x27> HIDDEN _sk_load_8888_dst_sse41_8bit .globl _sk_load_8888_dst_sse41_8bit FUNCTION(_sk_load_8888_dst_sse41_8bit) _sk_load_8888_dst_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 203 <_sk_load_8888_dst_sse41_8bit+0x2b> .byte 243,66,15,111,12,130 // movdqu (%rdx,%r8,4),%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,42 // je 237 <_sk_load_8888_dst_sse41_8bit+0x5f> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 229 <_sk_load_8888_dst_sse41_8bit+0x51> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,226 // jne 1ff <_sk_load_8888_dst_sse41_8bit+0x27> .byte 102,66,15,110,76,130,8 // movd 0x8(%rdx,%r8,4),%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 243,66,15,126,20,130 // movq (%rdx,%r8,4),%xmm2 .byte 102,15,58,14,202,15 // pblendw $0xf,%xmm2,%xmm1 .byte 235,200 // jmp 1ff <_sk_load_8888_dst_sse41_8bit+0x27> .byte 102,66,15,110,12,130 // movd (%rdx,%r8,4),%xmm1 .byte 235,192 // jmp 1ff <_sk_load_8888_dst_sse41_8bit+0x27> HIDDEN _sk_store_8888_sse41_8bit .globl _sk_store_8888_sse41_8bit FUNCTION(_sk_store_8888_sse41_8bit) _sk_store_8888_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 26a <_sk_store_8888_sse41_8bit+0x2b> .byte 243,66,15,127,4,130 // movdqu %xmm0,(%rdx,%r8,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,29 // je 291 <_sk_store_8888_sse41_8bit+0x52> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,15 // je 289 <_sk_store_8888_sse41_8bit+0x4a> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,230 // jne 266 <_sk_store_8888_sse41_8bit+0x27> .byte 102,66,15,58,22,68,130,8,2 // pextrd $0x2,%xmm0,0x8(%rdx,%r8,4) .byte 102,66,15,214,4,130 // movq %xmm0,(%rdx,%r8,4) .byte 235,213 // jmp 266 <_sk_store_8888_sse41_8bit+0x27> .byte 102,66,15,126,4,130 // movd %xmm0,(%rdx,%r8,4) .byte 235,205 // jmp 266 <_sk_store_8888_sse41_8bit+0x27> HIDDEN _sk_load_bgra_sse41_8bit .globl _sk_load_bgra_sse41_8bit FUNCTION(_sk_load_bgra_sse41_8bit) _sk_load_bgra_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,19 // jne 2cd <_sk_load_bgra_sse41_8bit+0x34> .byte 243,66,15,111,4,130 // movdqu (%rdx,%r8,4),%xmm0 .byte 102,15,56,0,5,151,12,0,0 // pshufb 0xc97(%rip),%xmm0 # f60 <_sk_xor__sse41_8bit+0xf6> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,42 // je 301 <_sk_load_bgra_sse41_8bit+0x68> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 2f3 <_sk_load_bgra_sse41_8bit+0x5a> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,217 // jne 2c0 <_sk_load_bgra_sse41_8bit+0x27> .byte 102,66,15,110,68,130,8 // movd 0x8(%rdx,%r8,4),%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 243,66,15,126,20,130 // movq (%rdx,%r8,4),%xmm2 .byte 102,15,58,14,194,15 // pblendw $0xf,%xmm2,%xmm0 .byte 235,191 // jmp 2c0 <_sk_load_bgra_sse41_8bit+0x27> .byte 102,66,15,110,4,130 // movd (%rdx,%r8,4),%xmm0 .byte 235,183 // jmp 2c0 <_sk_load_bgra_sse41_8bit+0x27> HIDDEN _sk_load_bgra_dst_sse41_8bit .globl _sk_load_bgra_dst_sse41_8bit FUNCTION(_sk_load_bgra_dst_sse41_8bit) _sk_load_bgra_dst_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,19 // jne 33d <_sk_load_bgra_dst_sse41_8bit+0x34> .byte 243,66,15,111,12,130 // movdqu (%rdx,%r8,4),%xmm1 .byte 102,15,56,0,13,55,12,0,0 // pshufb 0xc37(%rip),%xmm1 # f70 <_sk_xor__sse41_8bit+0x106> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,42 // je 371 <_sk_load_bgra_dst_sse41_8bit+0x68> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 363 <_sk_load_bgra_dst_sse41_8bit+0x5a> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,217 // jne 330 <_sk_load_bgra_dst_sse41_8bit+0x27> .byte 102,66,15,110,76,130,8 // movd 0x8(%rdx,%r8,4),%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 243,66,15,126,20,130 // movq (%rdx,%r8,4),%xmm2 .byte 102,15,58,14,202,15 // pblendw $0xf,%xmm2,%xmm1 .byte 235,191 // jmp 330 <_sk_load_bgra_dst_sse41_8bit+0x27> .byte 102,66,15,110,12,130 // movd (%rdx,%r8,4),%xmm1 .byte 235,183 // jmp 330 <_sk_load_bgra_dst_sse41_8bit+0x27> HIDDEN _sk_store_bgra_sse41_8bit .globl _sk_store_bgra_sse41_8bit FUNCTION(_sk_store_bgra_sse41_8bit) _sk_store_bgra_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,56,0,21,222,11,0,0 // pshufb 0xbde(%rip),%xmm2 # f80 <_sk_xor__sse41_8bit+0x116> .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 3b1 <_sk_store_bgra_sse41_8bit+0x38> .byte 243,66,15,127,20,130 // movdqu %xmm2,(%rdx,%r8,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,29 // je 3d8 <_sk_store_bgra_sse41_8bit+0x5f> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,15 // je 3d0 <_sk_store_bgra_sse41_8bit+0x57> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,230 // jne 3ad <_sk_store_bgra_sse41_8bit+0x34> .byte 102,66,15,58,22,84,130,8,2 // pextrd $0x2,%xmm2,0x8(%rdx,%r8,4) .byte 102,66,15,214,20,130 // movq %xmm2,(%rdx,%r8,4) .byte 235,213 // jmp 3ad <_sk_store_bgra_sse41_8bit+0x34> .byte 102,66,15,126,20,130 // movd %xmm2,(%rdx,%r8,4) .byte 235,205 // jmp 3ad <_sk_store_bgra_sse41_8bit+0x34> HIDDEN _sk_load_a8_sse41_8bit .globl _sk_load_a8_sse41_8bit FUNCTION(_sk_load_a8_sse41_8bit) _sk_load_a8_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,16 // jne 40d <_sk_load_a8_sse41_8bit+0x2d> .byte 102,66,15,56,49,4,2 // pmovzxbd (%rdx,%r8,1),%xmm0 .byte 102,15,114,240,24 // pslld $0x18,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,53 // je 44c <_sk_load_a8_sse41_8bit+0x6c> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 436 <_sk_load_a8_sse41_8bit+0x56> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,221 // jne 404 <_sk_load_a8_sse41_8bit+0x24> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 102,15,58,14,194,15 // pblendw $0xf,%xmm2,%xmm0 .byte 235,184 // jmp 404 <_sk_load_a8_sse41_8bit+0x24> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,173 // jmp 404 <_sk_load_a8_sse41_8bit+0x24> HIDDEN _sk_load_a8_dst_sse41_8bit .globl _sk_load_a8_dst_sse41_8bit FUNCTION(_sk_load_a8_dst_sse41_8bit) _sk_load_a8_dst_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,16 // jne 484 <_sk_load_a8_dst_sse41_8bit+0x2d> .byte 102,66,15,56,49,12,2 // pmovzxbd (%rdx,%r8,1),%xmm1 .byte 102,15,114,241,24 // pslld $0x18,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,53 // je 4c3 <_sk_load_a8_dst_sse41_8bit+0x6c> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 4ad <_sk_load_a8_dst_sse41_8bit+0x56> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,221 // jne 47b <_sk_load_a8_dst_sse41_8bit+0x24> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 102,15,58,14,202,15 // pblendw $0xf,%xmm2,%xmm1 .byte 235,184 // jmp 47b <_sk_load_a8_dst_sse41_8bit+0x24> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 235,173 // jmp 47b <_sk_load_a8_dst_sse41_8bit+0x24> HIDDEN _sk_store_a8_sse41_8bit .globl _sk_store_a8_sse41_8bit FUNCTION(_sk_store_a8_sse41_8bit) _sk_store_a8_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,114,210,24 // psrld $0x18,%xmm2 .byte 77,133,201 // test %r9,%r9 .byte 117,19 // jne 507 <_sk_store_a8_sse41_8bit+0x39> .byte 102,15,56,0,21,163,10,0,0 // pshufb 0xaa3(%rip),%xmm2 # fa0 <_sk_xor__sse41_8bit+0x136> .byte 102,66,15,126,20,2 // movd %xmm2,(%rdx,%r8,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,40 // je 539 <_sk_store_a8_sse41_8bit+0x6b> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,15 // je 526 <_sk_store_a8_sse41_8bit+0x58> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,230 // jne 503 <_sk_store_a8_sse41_8bit+0x35> .byte 102,66,15,58,20,84,2,2,8 // pextrb $0x8,%xmm2,0x2(%rdx,%r8,1) .byte 102,15,56,0,21,97,10,0,0 // pshufb 0xa61(%rip),%xmm2 # f90 <_sk_xor__sse41_8bit+0x126> .byte 102,66,15,58,21,20,2,0 // pextrw $0x0,%xmm2,(%rdx,%r8,1) .byte 235,202 // jmp 503 <_sk_store_a8_sse41_8bit+0x35> .byte 102,66,15,58,20,20,2,0 // pextrb $0x0,%xmm2,(%rdx,%r8,1) .byte 235,192 // jmp 503 <_sk_store_a8_sse41_8bit+0x35> HIDDEN _sk_load_g8_sse41_8bit .globl _sk_load_g8_sse41_8bit FUNCTION(_sk_load_g8_sse41_8bit) _sk_load_g8_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,36 // jne 584 <_sk_load_g8_sse41_8bit+0x41> .byte 102,66,15,56,49,4,2 // pmovzxbd (%rdx,%r8,1),%xmm0 .byte 102,15,219,5,65,10,0,0 // pand 0xa41(%rip),%xmm0 # fb0 <_sk_xor__sse41_8bit+0x146> .byte 102,15,56,64,5,72,10,0,0 // pmulld 0xa48(%rip),%xmm0 # fc0 <_sk_xor__sse41_8bit+0x156> .byte 102,15,235,5,80,10,0,0 // por 0xa50(%rip),%xmm0 # fd0 <_sk_xor__sse41_8bit+0x166> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,53 // je 5c3 <_sk_load_g8_sse41_8bit+0x80> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 5ad <_sk_load_g8_sse41_8bit+0x6a> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,201 // jne 567 <_sk_load_g8_sse41_8bit+0x24> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 102,15,58,14,194,15 // pblendw $0xf,%xmm2,%xmm0 .byte 235,164 // jmp 567 <_sk_load_g8_sse41_8bit+0x24> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,153 // jmp 567 <_sk_load_g8_sse41_8bit+0x24> HIDDEN _sk_load_g8_dst_sse41_8bit .globl _sk_load_g8_dst_sse41_8bit FUNCTION(_sk_load_g8_dst_sse41_8bit) _sk_load_g8_dst_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,36 // jne 60f <_sk_load_g8_dst_sse41_8bit+0x41> .byte 102,66,15,56,49,12,2 // pmovzxbd (%rdx,%r8,1),%xmm1 .byte 102,15,219,13,230,9,0,0 // pand 0x9e6(%rip),%xmm1 # fe0 <_sk_xor__sse41_8bit+0x176> .byte 102,15,56,64,13,237,9,0,0 // pmulld 0x9ed(%rip),%xmm1 # ff0 <_sk_xor__sse41_8bit+0x186> .byte 102,15,235,13,245,9,0,0 // por 0x9f5(%rip),%xmm1 # 1000 <_sk_xor__sse41_8bit+0x196> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,53 // je 64e <_sk_load_g8_dst_sse41_8bit+0x80> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 638 <_sk_load_g8_dst_sse41_8bit+0x6a> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,201 // jne 5f2 <_sk_load_g8_dst_sse41_8bit+0x24> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 102,15,58,14,202,15 // pblendw $0xf,%xmm2,%xmm1 .byte 235,164 // jmp 5f2 <_sk_load_g8_dst_sse41_8bit+0x24> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 235,153 // jmp 5f2 <_sk_load_g8_dst_sse41_8bit+0x24> HIDDEN _sk_srcover_rgba_8888_sse41_8bit .globl _sk_srcover_rgba_8888_sse41_8bit FUNCTION(_sk_srcover_rgba_8888_sse41_8bit) _sk_srcover_rgba_8888_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,98 // jne 6dc <_sk_srcover_rgba_8888_sse41_8bit+0x83> .byte 243,66,15,111,20,130 // movdqu (%rdx,%r8,4),%xmm2 .byte 77,133,201 // test %r9,%r9 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,56,0,29,128,9,0,0 // pshufb 0x980(%rip),%xmm3 # 1010 <_sk_xor__sse41_8bit+0x1a6> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5 .byte 102,15,56,48,242 // pmovzxbw %xmm2,%xmm6 .byte 102,15,56,48,251 // pmovzxbw %xmm3,%xmm7 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,221 // pmullw %xmm5,%xmm3 .byte 102,15,213,254 // pmullw %xmm6,%xmm7 .byte 102,15,253,221 // paddw %xmm5,%xmm3 .byte 102,15,253,254 // paddw %xmm6,%xmm7 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 .byte 102,15,103,251 // packuswb %xmm3,%xmm7 .byte 102,15,248,215 // psubb %xmm7,%xmm2 .byte 102,15,252,208 // paddb %xmm0,%xmm2 .byte 117,60 // jne 70e <_sk_srcover_rgba_8888_sse41_8bit+0xb5> .byte 243,66,15,127,20,130 // movdqu %xmm2,(%rdx,%r8,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 68,137,200 // mov %r9d,%eax .byte 36,3 // and $0x3,%al .byte 60,1 // cmp $0x1,%al .byte 116,80 // je 735 <_sk_srcover_rgba_8888_sse41_8bit+0xdc> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 60,2 // cmp $0x2,%al .byte 116,16 // je 6fd <_sk_srcover_rgba_8888_sse41_8bit+0xa4> .byte 60,3 // cmp $0x3,%al .byte 117,143 // jne 680 <_sk_srcover_rgba_8888_sse41_8bit+0x27> .byte 102,66,15,110,84,130,8 // movd 0x8(%rdx,%r8,4),%xmm2 .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 .byte 243,66,15,126,28,130 // movq (%rdx,%r8,4),%xmm3 .byte 102,15,58,14,211,15 // pblendw $0xf,%xmm3,%xmm2 .byte 233,114,255,255,255 // jmpq 680 <_sk_srcover_rgba_8888_sse41_8bit+0x27> .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,40 // je 740 <_sk_srcover_rgba_8888_sse41_8bit+0xe7> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,15 // je 72d <_sk_srcover_rgba_8888_sse41_8bit+0xd4> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,180 // jne 6d8 <_sk_srcover_rgba_8888_sse41_8bit+0x7f> .byte 102,66,15,58,22,84,130,8,2 // pextrd $0x2,%xmm2,0x8(%rdx,%r8,4) .byte 102,66,15,214,20,130 // movq %xmm2,(%rdx,%r8,4) .byte 235,163 // jmp 6d8 <_sk_srcover_rgba_8888_sse41_8bit+0x7f> .byte 102,66,15,110,20,130 // movd (%rdx,%r8,4),%xmm2 .byte 233,64,255,255,255 // jmpq 680 <_sk_srcover_rgba_8888_sse41_8bit+0x27> .byte 102,66,15,126,20,130 // movd %xmm2,(%rdx,%r8,4) .byte 235,144 // jmp 6d8 <_sk_srcover_rgba_8888_sse41_8bit+0x7f> HIDDEN _sk_scale_1_float_sse41_8bit .globl _sk_scale_1_float_sse41_8bit FUNCTION(_sk_scale_1_float_sse41_8bit) _sk_scale_1_float_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,16 // movss (%rax),%xmm2 .byte 243,15,89,21,186,7,0,0 // mulss 0x7ba(%rip),%xmm2 # f10 <_sk_xor__sse41_8bit+0xa6> .byte 243,15,44,194 // cvttss2si %xmm2,%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4 .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0 .byte 102,15,56,0,29,173,8,0,0 // pshufb 0x8ad(%rip),%xmm3 # 1020 <_sk_xor__sse41_8bit+0x1b6> .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_sse41_8bit .globl _sk_scale_u8_sse41_8bit FUNCTION(_sk_scale_u8_sse41_8bit) _sk_scale_u8_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,76 // jne 806 <_sk_scale_u8_sse41_8bit+0x69> .byte 102,66,15,56,49,28,2 // pmovzxbd (%rdx,%r8,1),%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,56,0,29,98,8,0,0 // pshufb 0x862(%rip),%xmm3 # 1030 <_sk_xor__sse41_8bit+0x1c6> .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,56,48,211 // pmovzxbw %xmm3,%xmm2 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,56 // je 848 <_sk_scale_u8_sse41_8bit+0xab> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 82f <_sk_scale_u8_sse41_8bit+0x92> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,161 // jne 7c1 <_sk_scale_u8_sse41_8bit+0x24> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 102,15,58,14,218,15 // pblendw $0xf,%xmm2,%xmm3 .byte 233,121,255,255,255 // jmpq 7c1 <_sk_scale_u8_sse41_8bit+0x24> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 233,107,255,255,255 // jmpq 7c1 <_sk_scale_u8_sse41_8bit+0x24> HIDDEN _sk_lerp_1_float_sse41_8bit .globl _sk_lerp_1_float_sse41_8bit FUNCTION(_sk_lerp_1_float_sse41_8bit) _sk_lerp_1_float_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,16 // movss (%rax),%xmm2 .byte 243,15,89,21,176,6,0,0 // mulss 0x6b0(%rip),%xmm2 # f14 <_sk_xor__sse41_8bit+0xaa> .byte 243,15,44,194 // cvttss2si %xmm2,%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,56,0,220 // pshufb %xmm4,%xmm3 .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,21,186,7,0,0 // movdqa 0x7ba(%rip),%xmm2 # 1040 <_sk_xor__sse41_8bit+0x1d6> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,213,240 // pmullw %xmm0,%xmm6 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,240 // paddw %xmm0,%xmm6 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,214 // packuswb %xmm6,%xmm2 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,239,235 // pxor %xmm3,%xmm5 .byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,104,244 // punpckhbw %xmm4,%xmm6 .byte 102,15,56,48,197 // pmovzxbw %xmm5,%xmm0 .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5 .byte 102,15,213,238 // pmullw %xmm6,%xmm5 .byte 102,15,213,195 // pmullw %xmm3,%xmm0 .byte 102,15,253,238 // paddw %xmm6,%xmm5 .byte 102,15,253,195 // paddw %xmm3,%xmm0 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,197 // packuswb %xmm5,%xmm0 .byte 102,15,252,194 // paddb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_sse41_8bit .globl _sk_lerp_u8_sse41_8bit FUNCTION(_sk_lerp_u8_sse41_8bit) _sk_lerp_u8_sse41_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 15,133,140,0,0,0 // jne 99d <_sk_lerp_u8_sse41_8bit+0xad> .byte 102,66,15,56,49,20,2 // pmovzxbd (%rdx,%r8,1),%xmm2 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,56,0,21,43,7,0,0 // pshufb 0x72b(%rip),%xmm2 # 1050 <_sk_xor__sse41_8bit+0x1e6> .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,104,244 // punpckhbw %xmm4,%xmm6 .byte 102,15,56,48,218 // pmovzxbw %xmm2,%xmm3 .byte 102,15,213,240 // pmullw %xmm0,%xmm6 .byte 102,15,213,221 // pmullw %xmm5,%xmm3 .byte 102,15,253,240 // paddw %xmm0,%xmm6 .byte 102,15,253,221 // paddw %xmm5,%xmm3 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,103,222 // packuswb %xmm6,%xmm3 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,239,234 // pxor %xmm2,%xmm5 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,104,212 // punpckhbw %xmm4,%xmm2 .byte 102,15,56,48,241 // pmovzxbw %xmm1,%xmm6 .byte 102,15,56,48,197 // pmovzxbw %xmm5,%xmm0 .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 .byte 102,15,253,234 // paddw %xmm2,%xmm5 .byte 102,15,253,198 // paddw %xmm6,%xmm0 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,197 // packuswb %xmm5,%xmm0 .byte 102,15,252,195 // paddb %xmm3,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,60 // je 9e3 <_sk_lerp_u8_sse41_8bit+0xf3> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,25 // je 9ca <_sk_lerp_u8_sse41_8bit+0xda> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 15,133,93,255,255,255 // jne 918 <_sk_lerp_u8_sse41_8bit+0x28> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 102,15,56,49,219 // pmovzxbd %xmm3,%xmm3 .byte 102,15,58,14,211,15 // pblendw $0xf,%xmm3,%xmm2 .byte 233,53,255,255,255 // jmpq 918 <_sk_lerp_u8_sse41_8bit+0x28> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 233,39,255,255,255 // jmpq 918 <_sk_lerp_u8_sse41_8bit+0x28> HIDDEN _sk_move_src_dst_sse41_8bit .globl _sk_move_src_dst_sse41_8bit FUNCTION(_sk_move_src_dst_sse41_8bit) _sk_move_src_dst_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_sse41_8bit .globl _sk_move_dst_src_sse41_8bit FUNCTION(_sk_move_dst_src_sse41_8bit) _sk_move_dst_src_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_sse41_8bit .globl _sk_black_color_sse41_8bit FUNCTION(_sk_black_color_sse41_8bit) _sk_black_color_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,5,88,6,0,0 // movaps 0x658(%rip),%xmm0 # 1060 <_sk_xor__sse41_8bit+0x1f6> .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_sse41_8bit .globl _sk_white_color_sse41_8bit FUNCTION(_sk_white_color_sse41_8bit) _sk_white_color_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_sse41_8bit .globl _sk_clear_sse41_8bit FUNCTION(_sk_clear_sse41_8bit) _sk_clear_sse41_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_sse41_8bit .globl _sk_srcatop_sse41_8bit FUNCTION(_sk_srcatop_sse41_8bit) _sk_srcatop_sse41_8bit: .byte 102,68,15,111,5,78,6,0,0 // movdqa 0x64e(%rip),%xmm8 # 1070 <_sk_xor__sse41_8bit+0x206> .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,65,15,56,0,232 // pshufb %xmm8,%xmm5 .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,104,254 // punpckhbw %xmm6,%xmm7 .byte 102,15,56,48,213 // pmovzxbw %xmm5,%xmm2 .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5 .byte 102,15,213,239 // pmullw %xmm7,%xmm5 .byte 102,15,253,239 // paddw %xmm7,%xmm5 .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7 .byte 102,15,213,215 // pmullw %xmm7,%xmm2 .byte 102,15,253,215 // paddw %xmm7,%xmm2 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,213 // packuswb %xmm5,%xmm2 .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,239,232 // pxor %xmm0,%xmm5 .byte 102,15,104,222 // punpckhbw %xmm6,%xmm3 .byte 102,15,56,48,197 // pmovzxbw %xmm5,%xmm0 .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5 .byte 102,15,213,235 // pmullw %xmm3,%xmm5 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 .byte 102,15,253,235 // paddw %xmm3,%xmm5 .byte 102,15,253,196 // paddw %xmm4,%xmm0 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,197 // packuswb %xmm5,%xmm0 .byte 102,15,252,194 // paddb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_sse41_8bit .globl _sk_dstatop_sse41_8bit FUNCTION(_sk_dstatop_sse41_8bit) _sk_dstatop_sse41_8bit: .byte 102,15,111,21,202,5,0,0 // movdqa 0x5ca(%rip),%xmm2 # 1080 <_sk_xor__sse41_8bit+0x216> .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,56,0,218 // pshufb %xmm2,%xmm3 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,15,56,48,233 // pmovzxbw %xmm1,%xmm5 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,111,249 // movdqa %xmm1,%xmm7 .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7 .byte 102,15,56,48,227 // pmovzxbw %xmm3,%xmm4 .byte 102,65,15,104,216 // punpckhbw %xmm8,%xmm3 .byte 102,15,213,223 // pmullw %xmm7,%xmm3 .byte 102,15,253,223 // paddw %xmm7,%xmm3 .byte 102,15,213,229 // pmullw %xmm5,%xmm4 .byte 102,15,253,229 // paddw %xmm5,%xmm4 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,103,227 // packuswb %xmm3,%xmm4 .byte 102,15,56,0,242 // pshufb %xmm2,%xmm6 .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3 .byte 102,15,239,222 // pxor %xmm6,%xmm3 .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,65,15,104,192 // punpckhbw %xmm8,%xmm0 .byte 102,15,56,48,211 // pmovzxbw %xmm3,%xmm2 .byte 102,65,15,104,216 // punpckhbw %xmm8,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 102,15,252,212 // paddb %xmm4,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_sse41_8bit .globl _sk_srcin_sse41_8bit FUNCTION(_sk_srcin_sse41_8bit) _sk_srcin_sse41_8bit: .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,56,0,29,58,5,0,0 // pshufb 0x53a(%rip),%xmm3 # 1090 <_sk_xor__sse41_8bit+0x226> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,56,48,211 // pmovzxbw %xmm3,%xmm2 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_sse41_8bit .globl _sk_dstin_sse41_8bit FUNCTION(_sk_dstin_sse41_8bit) _sk_dstin_sse41_8bit: .byte 102,15,56,0,5,5,5,0,0 // pshufb 0x505(%rip),%xmm0 # 10a0 <_sk_xor__sse41_8bit+0x236> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,56,48,208 // pmovzxbw %xmm0,%xmm2 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,213,197 // pmullw %xmm5,%xmm0 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,253,197 // paddw %xmm5,%xmm0 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,208 // packuswb %xmm0,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_sse41_8bit .globl _sk_srcout_sse41_8bit FUNCTION(_sk_srcout_sse41_8bit) _sk_srcout_sse41_8bit: .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,56,0,21,200,4,0,0 // pshufb 0x4c8(%rip),%xmm2 # 10b0 <_sk_xor__sse41_8bit+0x246> .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3 .byte 102,15,239,218 // pxor %xmm2,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,56,48,211 // pmovzxbw %xmm3,%xmm2 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_sse41_8bit .globl _sk_dstout_sse41_8bit FUNCTION(_sk_dstout_sse41_8bit) _sk_dstout_sse41_8bit: .byte 102,15,56,0,5,139,4,0,0 // pshufb 0x48b(%rip),%xmm0 # 10c0 <_sk_xor__sse41_8bit+0x256> .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2 .byte 102,15,239,208 // pxor %xmm0,%xmm2 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,56,48,194 // pmovzxbw %xmm2,%xmm0 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,196 // paddw %xmm4,%xmm0 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,194 // packuswb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_sse41_8bit .globl _sk_srcover_sse41_8bit FUNCTION(_sk_srcover_sse41_8bit) _sk_srcover_sse41_8bit: .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,56,0,21,74,4,0,0 // pshufb 0x44a(%rip),%xmm2 # 10d0 <_sk_xor__sse41_8bit+0x266> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4 .byte 102,15,252,193 // paddb %xmm1,%xmm0 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,56,48,242 // pmovzxbw %xmm2,%xmm6 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,213,244 // pmullw %xmm4,%xmm6 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,244 // paddw %xmm4,%xmm6 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,103,242 // packuswb %xmm2,%xmm6 .byte 102,15,248,198 // psubb %xmm6,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_sse41_8bit .globl _sk_dstover_sse41_8bit FUNCTION(_sk_dstover_sse41_8bit) _sk_dstover_sse41_8bit: .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,56,48,216 // pmovzxbw %xmm0,%xmm3 .byte 102,15,252,193 // paddb %xmm1,%xmm0 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,56,0,37,252,3,0,0 // pshufb 0x3fc(%rip),%xmm4 # 10e0 <_sk_xor__sse41_8bit+0x276> .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 102,15,104,213 // punpckhbw %xmm5,%xmm2 .byte 102,15,56,48,244 // pmovzxbw %xmm4,%xmm6 .byte 102,15,104,229 // punpckhbw %xmm5,%xmm4 .byte 102,15,213,226 // pmullw %xmm2,%xmm4 .byte 102,15,213,243 // pmullw %xmm3,%xmm6 .byte 102,15,253,226 // paddw %xmm2,%xmm4 .byte 102,15,253,243 // paddw %xmm3,%xmm6 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,103,244 // packuswb %xmm4,%xmm6 .byte 102,15,248,198 // psubb %xmm6,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_sse41_8bit .globl _sk_modulate_sse41_8bit FUNCTION(_sk_modulate_sse41_8bit) _sk_modulate_sse41_8bit: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,56,48,209 // pmovzxbw %xmm1,%xmm2 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,213,232 // pmullw %xmm0,%xmm5 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,253,232 // paddw %xmm0,%xmm5 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,213 // packuswb %xmm5,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_sse41_8bit .globl _sk_multiply_sse41_8bit FUNCTION(_sk_multiply_sse41_8bit) _sk_multiply_sse41_8bit: .byte 102,68,15,111,5,140,3,0,0 // movdqa 0x38c(%rip),%xmm8 # 10f0 <_sk_xor__sse41_8bit+0x286> .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,56,48,209 // pmovzxbw %xmm1,%xmm2 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,65,15,56,0,232 // pshufb %xmm8,%xmm5 .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9 .byte 102,65,15,239,233 // pxor %xmm9,%xmm5 .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,65,15,104,218 // punpckhbw %xmm10,%xmm3 .byte 102,15,56,48,240 // pmovzxbw %xmm0,%xmm6 .byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7 .byte 102,65,15,104,234 // punpckhbw %xmm10,%xmm5 .byte 102,15,213,235 // pmullw %xmm3,%xmm5 .byte 102,15,213,254 // pmullw %xmm6,%xmm7 .byte 102,15,253,235 // paddw %xmm3,%xmm5 .byte 102,15,253,254 // paddw %xmm6,%xmm7 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 .byte 102,15,103,253 // packuswb %xmm5,%xmm7 .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0 .byte 102,65,15,239,193 // pxor %xmm9,%xmm0 .byte 102,65,15,104,226 // punpckhbw %xmm10,%xmm4 .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5 .byte 102,65,15,104,194 // punpckhbw %xmm10,%xmm0 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,196 // paddw %xmm4,%xmm0 .byte 102,15,253,234 // paddw %xmm2,%xmm5 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,103,232 // packuswb %xmm0,%xmm5 .byte 102,15,252,239 // paddb %xmm7,%xmm5 .byte 102,15,213,227 // pmullw %xmm3,%xmm4 .byte 102,15,213,214 // pmullw %xmm6,%xmm2 .byte 102,15,253,227 // paddw %xmm3,%xmm4 .byte 102,15,253,214 // paddw %xmm6,%xmm2 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,212 // packuswb %xmm4,%xmm2 .byte 102,15,252,213 // paddb %xmm5,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_sse41_8bit .globl _sk_screen_sse41_8bit FUNCTION(_sk_screen_sse41_8bit) _sk_screen_sse41_8bit: .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2 .byte 102,15,239,208 // pxor %xmm0,%xmm2 .byte 102,15,56,48,218 // pmovzxbw %xmm2,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,104,212 // punpckhbw %xmm4,%xmm2 .byte 102,15,56,48,233 // pmovzxbw %xmm1,%xmm5 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,104,244 // punpckhbw %xmm4,%xmm6 .byte 102,15,213,242 // pmullw %xmm2,%xmm6 .byte 102,15,213,235 // pmullw %xmm3,%xmm5 .byte 102,15,253,235 // paddw %xmm3,%xmm5 .byte 102,15,253,242 // paddw %xmm2,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,103,238 // packuswb %xmm6,%xmm5 .byte 102,15,252,197 // paddb %xmm5,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__sse41_8bit .globl _sk_xor__sse41_8bit FUNCTION(_sk_xor__sse41_8bit) _sk_xor__sse41_8bit: .byte 102,68,15,111,5,141,2,0,0 // movdqa 0x28d(%rip),%xmm8 # 1100 <_sk_xor__sse41_8bit+0x296> .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,65,15,56,0,232 // pshufb %xmm8,%xmm5 .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9 .byte 102,65,15,239,233 // pxor %xmm9,%xmm5 .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,104,215 // punpckhbw %xmm7,%xmm2 .byte 102,15,56,48,245 // pmovzxbw %xmm5,%xmm6 .byte 102,15,104,239 // punpckhbw %xmm7,%xmm5 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,234 // paddw %xmm2,%xmm5 .byte 102,15,56,48,208 // pmovzxbw %xmm0,%xmm2 .byte 102,15,213,242 // pmullw %xmm2,%xmm6 .byte 102,15,253,242 // paddw %xmm2,%xmm6 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,103,245 // packuswb %xmm5,%xmm6 .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0 .byte 102,65,15,239,193 // pxor %xmm9,%xmm0 .byte 102,15,104,223 // punpckhbw %xmm7,%xmm3 .byte 102,15,56,48,208 // pmovzxbw %xmm0,%xmm2 .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0 .byte 102,15,213,195 // pmullw %xmm3,%xmm0 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,253,195 // paddw %xmm3,%xmm0 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,208 // packuswb %xmm0,%xmm2 .byte 102,15,252,214 // paddb %xmm6,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax BALIGN4 .byte 0,0 // add %al,(%rax) .byte 127,67 // jg f53 <_sk_xor__sse41_8bit+0xe9> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg f57 <_sk_xor__sse41_8bit+0xed> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg f5b <_sk_xor__sse41_8bit+0xf1> BALIGN16 .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 3,3 // add (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,0,0 // sldt (%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 2,1 // add (%rcx),%al .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,2,1 // or $0x1020f0c,%eax .byte 0,3 // add %al,(%rbx) .byte 6 // (bad) .byte 5,4,7,10,9 // add $0x90a0704,%eax .byte 8,11 // or %cl,(%rbx) .byte 14 // (bad) .byte 13,12,15,0,4 // or $0x4000f0c,%eax .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,4,8 // add %al,(%rax,%rcx,1) .byte 12,0 // or $0x0,%al .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,1 // add %al,(%rcx) .byte 1,1 // add %eax,(%rcx) .byte 0,1 // add %al,(%rcx) .byte 1,1 // add %eax,(%rcx) .byte 0,1 // add %al,(%rcx) .byte 1,1 // add %eax,(%rcx) .byte 0,1 // add %al,(%rcx) .byte 1,1 // add %eax,(%rcx) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255 // (bad) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 3,3 // add (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,0 // (bad) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,4,4 // add %al,(%rsp,%rax,1) .byte 4,4 // add $0x4,%al .byte 8,8 // or %cl,(%rax) .byte 8,8 // or %cl,(%rax) .byte 12,12 // or $0xc,%al .byte 12,12 // or $0xc,%al .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,0 // add %al,(%rax) .byte 4,4 // add $0x4,%al .byte 4,4 // add $0x4,%al .byte 8,8 // or %cl,(%rax) .byte 8,8 // or %cl,(%rax) .byte 12,12 // or $0xc,%al .byte 12,12 // or $0xc,%al .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 3,3 // add (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // (bad) .byte 15 // (bad) .byte 15,3,3 // lsl (%rbx),%eax .byte 3,3 // add (%rbx),%eax .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 7 // (bad) .byte 11,11 // or (%rbx),%ecx .byte 11,11 // or (%rbx),%ecx .byte 15 // (bad) .byte 15 // .byte 0xf .byte 15 // .byte 0xf .byte 15 // .byte 0xf BALIGN32 HIDDEN _sk_start_pipeline_sse2_8bit .globl _sk_start_pipeline_sse2_8bit FUNCTION(_sk_start_pipeline_sse2_8bit) _sk_start_pipeline_sse2_8bit: .byte 85 // push %rbp .byte 72,137,229 // mov %rsp,%rbp .byte 65,87 // push %r15 .byte 65,86 // push %r14 .byte 65,85 // push %r13 .byte 65,84 // push %r12 .byte 83 // push %rbx .byte 72,131,236,56 // sub $0x38,%rsp .byte 72,137,211 // mov %rdx,%rbx .byte 73,137,247 // mov %rsi,%r15 .byte 72,137,125,208 // mov %rdi,-0x30(%rbp) .byte 76,137,198 // mov %r8,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,197 // mov %rax,%r13 .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,168 // mov %rcx,-0x58(%rbp) .byte 73,57,207 // cmp %rcx,%r15 .byte 115,102 // jae 95 <_sk_start_pipeline_sse2_8bit+0x95> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,4 // lea 0x4(%rax),%rax .byte 72,137,69,176 // mov %rax,-0x50(%rbp) .byte 76,141,101,184 // lea -0x48(%rbp),%r12 .byte 72,57,93,176 // cmp %rbx,-0x50(%rbp) .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 76,137,125,192 // mov %r15,-0x40(%rbp) .byte 72,199,69,200,0,0,0,0 // movq $0x0,-0x38(%rbp) .byte 119,30 // ja 77 <_sk_start_pipeline_sse2_8bit+0x77> .byte 76,137,231 // mov %r12,%rdi .byte 76,137,246 // mov %r14,%rsi .byte 65,255,213 // callq *%r13 .byte 72,139,77,184 // mov -0x48(%rbp),%rcx .byte 72,141,65,4 // lea 0x4(%rcx),%rax .byte 72,137,69,184 // mov %rax,-0x48(%rbp) .byte 72,131,193,8 // add $0x8,%rcx .byte 72,57,217 // cmp %rbx,%rcx .byte 118,226 // jbe 59 <_sk_start_pipeline_sse2_8bit+0x59> .byte 72,137,217 // mov %rbx,%rcx .byte 72,41,193 // sub %rax,%rcx .byte 116,13 // je 8c <_sk_start_pipeline_sse2_8bit+0x8c> .byte 72,137,77,200 // mov %rcx,-0x38(%rbp) .byte 76,137,231 // mov %r12,%rdi .byte 76,137,246 // mov %r14,%rsi .byte 65,255,213 // callq *%r13 .byte 73,255,199 // inc %r15 .byte 76,59,125,168 // cmp -0x58(%rbp),%r15 .byte 117,170 // jne 3f <_sk_start_pipeline_sse2_8bit+0x3f> .byte 72,131,196,56 // add $0x38,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,93 // pop %r13 .byte 65,94 // pop %r14 .byte 65,95 // pop %r15 .byte 93 // pop %rbp .byte 195 // retq HIDDEN _sk_just_return_sse2_8bit .globl _sk_just_return_sse2_8bit FUNCTION(_sk_just_return_sse2_8bit) _sk_just_return_sse2_8bit: .byte 195 // retq HIDDEN _sk_uniform_color_sse2_8bit .globl _sk_uniform_color_sse2_8bit FUNCTION(_sk_uniform_color_sse2_8bit) _sk_uniform_color_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_set_rgb_sse2_8bit .globl _sk_set_rgb_sse2_8bit FUNCTION(_sk_set_rgb_sse2_8bit) _sk_set_rgb_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,21,1,17,0,0 // movss 0x1101(%rip),%xmm2 # 11c0 <_sk_xor__sse2_8bit+0xc5> .byte 243,15,16,24 // movss (%rax),%xmm3 .byte 243,15,89,218 // mulss %xmm2,%xmm3 .byte 243,72,15,44,203 // cvttss2si %xmm3,%rcx .byte 243,15,16,88,4 // movss 0x4(%rax),%xmm3 .byte 243,15,89,218 // mulss %xmm2,%xmm3 .byte 243,72,15,44,211 // cvttss2si %xmm3,%rdx .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx .byte 243,15,89,80,8 // mulss 0x8(%rax),%xmm2 .byte 243,72,15,44,194 // cvttss2si %xmm2,%rax .byte 193,224,16 // shl $0x10,%eax .byte 9,208 // or %edx,%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,219,5,209,16,0,0 // pand 0x10d1(%rip),%xmm0 # 11d0 <_sk_xor__sse2_8bit+0xd5> .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_premul_sse2_8bit .globl _sk_premul_sse2_8bit FUNCTION(_sk_premul_sse2_8bit) _sk_premul_sse2_8bit: .byte 242,15,112,208,231 // pshuflw $0xe7,%xmm0,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,218,95 // pshufhw $0x5f,%xmm2,%xmm3 .byte 102,15,235,29,180,16,0,0 // por 0x10b4(%rip),%xmm3 # 11e0 <_sk_xor__sse2_8bit+0xe5> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_swap_rb_sse2_8bit .globl _sk_swap_rb_sse2_8bit FUNCTION(_sk_swap_rb_sse2_8bit) _sk_swap_rb_sse2_8bit: .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3 .byte 242,15,112,219,198 // pshuflw $0xc6,%xmm3,%xmm3 .byte 243,15,112,219,198 // pshufhw $0xc6,%xmm3,%xmm3 .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0 .byte 242,15,112,192,198 // pshuflw $0xc6,%xmm0,%xmm0 .byte 243,15,112,192,198 // pshufhw $0xc6,%xmm0,%xmm0 .byte 102,15,103,195 // packuswb %xmm3,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_invert_sse2_8bit .globl _sk_invert_sse2_8bit FUNCTION(_sk_invert_sse2_8bit) _sk_invert_sse2_8bit: .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2 .byte 102,15,239,194 // pxor %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_load_8888_sse2_8bit .globl _sk_load_8888_sse2_8bit FUNCTION(_sk_load_8888_sse2_8bit) _sk_load_8888_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 1d1 <_sk_load_8888_sse2_8bit+0x2b> .byte 243,66,15,111,4,130 // movdqu (%rdx,%r8,4),%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,36 // je 1ff <_sk_load_8888_sse2_8bit+0x59> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 1f7 <_sk_load_8888_sse2_8bit+0x51> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,226 // jne 1cd <_sk_load_8888_sse2_8bit+0x27> .byte 102,66,15,110,68,130,8 // movd 0x8(%rdx,%r8,4),%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 102,66,15,18,4,130 // movlpd (%rdx,%r8,4),%xmm0 .byte 235,206 // jmp 1cd <_sk_load_8888_sse2_8bit+0x27> .byte 102,66,15,110,4,130 // movd (%rdx,%r8,4),%xmm0 .byte 235,198 // jmp 1cd <_sk_load_8888_sse2_8bit+0x27> HIDDEN _sk_load_8888_dst_sse2_8bit .globl _sk_load_8888_dst_sse2_8bit FUNCTION(_sk_load_8888_dst_sse2_8bit) _sk_load_8888_dst_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 232 <_sk_load_8888_dst_sse2_8bit+0x2b> .byte 243,66,15,111,12,130 // movdqu (%rdx,%r8,4),%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,36 // je 260 <_sk_load_8888_dst_sse2_8bit+0x59> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 258 <_sk_load_8888_dst_sse2_8bit+0x51> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,226 // jne 22e <_sk_load_8888_dst_sse2_8bit+0x27> .byte 102,66,15,110,76,130,8 // movd 0x8(%rdx,%r8,4),%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 102,66,15,18,12,130 // movlpd (%rdx,%r8,4),%xmm1 .byte 235,206 // jmp 22e <_sk_load_8888_dst_sse2_8bit+0x27> .byte 102,66,15,110,12,130 // movd (%rdx,%r8,4),%xmm1 .byte 235,198 // jmp 22e <_sk_load_8888_dst_sse2_8bit+0x27> HIDDEN _sk_store_8888_sse2_8bit .globl _sk_store_8888_sse2_8bit FUNCTION(_sk_store_8888_sse2_8bit) _sk_store_8888_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 293 <_sk_store_8888_sse2_8bit+0x2b> .byte 243,66,15,127,4,130 // movdqu %xmm0,(%rdx,%r8,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,32 // je 2bd <_sk_store_8888_sse2_8bit+0x55> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 2b5 <_sk_store_8888_sse2_8bit+0x4d> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,230 // jne 28f <_sk_store_8888_sse2_8bit+0x27> .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,66,15,126,84,130,8 // movd %xmm2,0x8(%rdx,%r8,4) .byte 102,66,15,214,4,130 // movq %xmm0,(%rdx,%r8,4) .byte 235,210 // jmp 28f <_sk_store_8888_sse2_8bit+0x27> .byte 102,66,15,126,4,130 // movd %xmm0,(%rdx,%r8,4) .byte 235,202 // jmp 28f <_sk_store_8888_sse2_8bit+0x27> HIDDEN _sk_load_bgra_sse2_8bit .globl _sk_load_bgra_sse2_8bit FUNCTION(_sk_load_bgra_sse2_8bit) _sk_load_bgra_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,50 // jne 318 <_sk_load_bgra_sse2_8bit+0x53> .byte 243,66,15,111,4,130 // movdqu (%rdx,%r8,4),%xmm0 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3 .byte 242,15,112,219,198 // pshuflw $0xc6,%xmm3,%xmm3 .byte 243,15,112,219,198 // pshufhw $0xc6,%xmm3,%xmm3 .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0 .byte 242,15,112,192,198 // pshuflw $0xc6,%xmm0,%xmm0 .byte 243,15,112,192,198 // pshufhw $0xc6,%xmm0,%xmm0 .byte 102,15,103,195 // packuswb %xmm3,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,36 // je 346 <_sk_load_bgra_sse2_8bit+0x81> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 33e <_sk_load_bgra_sse2_8bit+0x79> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,186 // jne 2ec <_sk_load_bgra_sse2_8bit+0x27> .byte 102,66,15,110,68,130,8 // movd 0x8(%rdx,%r8,4),%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 102,66,15,18,4,130 // movlpd (%rdx,%r8,4),%xmm0 .byte 235,166 // jmp 2ec <_sk_load_bgra_sse2_8bit+0x27> .byte 102,66,15,110,4,130 // movd (%rdx,%r8,4),%xmm0 .byte 235,158 // jmp 2ec <_sk_load_bgra_sse2_8bit+0x27> HIDDEN _sk_load_bgra_dst_sse2_8bit .globl _sk_load_bgra_dst_sse2_8bit FUNCTION(_sk_load_bgra_dst_sse2_8bit) _sk_load_bgra_dst_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,50 // jne 3a1 <_sk_load_bgra_dst_sse2_8bit+0x53> .byte 243,66,15,111,12,130 // movdqu (%rdx,%r8,4),%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3 .byte 242,15,112,219,198 // pshuflw $0xc6,%xmm3,%xmm3 .byte 243,15,112,219,198 // pshufhw $0xc6,%xmm3,%xmm3 .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1 .byte 242,15,112,201,198 // pshuflw $0xc6,%xmm1,%xmm1 .byte 243,15,112,201,198 // pshufhw $0xc6,%xmm1,%xmm1 .byte 102,15,103,203 // packuswb %xmm3,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,36 // je 3cf <_sk_load_bgra_dst_sse2_8bit+0x81> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 3c7 <_sk_load_bgra_dst_sse2_8bit+0x79> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,186 // jne 375 <_sk_load_bgra_dst_sse2_8bit+0x27> .byte 102,66,15,110,76,130,8 // movd 0x8(%rdx,%r8,4),%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 102,66,15,18,12,130 // movlpd (%rdx,%r8,4),%xmm1 .byte 235,166 // jmp 375 <_sk_load_bgra_dst_sse2_8bit+0x27> .byte 102,66,15,110,12,130 // movd (%rdx,%r8,4),%xmm1 .byte 235,158 // jmp 375 <_sk_load_bgra_dst_sse2_8bit+0x27> HIDDEN _sk_store_bgra_sse2_8bit .globl _sk_store_bgra_sse2_8bit FUNCTION(_sk_store_bgra_sse2_8bit) _sk_store_bgra_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3 .byte 242,15,112,219,198 // pshuflw $0xc6,%xmm3,%xmm3 .byte 243,15,112,219,198 // pshufhw $0xc6,%xmm3,%xmm3 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4 .byte 242,15,112,212,198 // pshuflw $0xc6,%xmm4,%xmm2 .byte 243,15,112,210,198 // pshufhw $0xc6,%xmm2,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 77,133,201 // test %r9,%r9 .byte 117,10 // jne 42e <_sk_store_bgra_sse2_8bit+0x57> .byte 243,66,15,127,20,130 // movdqu %xmm2,(%rdx,%r8,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,32 // je 458 <_sk_store_bgra_sse2_8bit+0x81> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 450 <_sk_store_bgra_sse2_8bit+0x79> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,230 // jne 42a <_sk_store_bgra_sse2_8bit+0x53> .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,66,15,126,92,130,8 // movd %xmm3,0x8(%rdx,%r8,4) .byte 102,66,15,214,20,130 // movq %xmm2,(%rdx,%r8,4) .byte 235,210 // jmp 42a <_sk_store_bgra_sse2_8bit+0x53> .byte 102,66,15,126,20,130 // movd %xmm2,(%rdx,%r8,4) .byte 235,202 // jmp 42a <_sk_store_bgra_sse2_8bit+0x53> HIDDEN _sk_load_a8_sse2_8bit .globl _sk_load_a8_sse2_8bit FUNCTION(_sk_load_a8_sse2_8bit) _sk_load_a8_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,23 // jne 494 <_sk_load_a8_sse2_8bit+0x34> .byte 102,66,15,110,4,2 // movd (%rdx,%r8,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 102,15,114,240,24 // pslld $0x18,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,54 // je 4d4 <_sk_load_a8_sse2_8bit+0x74> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 4bd <_sk_load_a8_sse2_8bit+0x5d> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,221 // jne 48b <_sk_load_a8_sse2_8bit+0x2b> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 242,15,16,194 // movsd %xmm2,%xmm0 .byte 235,183 // jmp 48b <_sk_load_a8_sse2_8bit+0x2b> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 235,172 // jmp 48b <_sk_load_a8_sse2_8bit+0x2b> HIDDEN _sk_load_a8_dst_sse2_8bit .globl _sk_load_a8_dst_sse2_8bit FUNCTION(_sk_load_a8_dst_sse2_8bit) _sk_load_a8_dst_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,23 // jne 513 <_sk_load_a8_dst_sse2_8bit+0x34> .byte 102,66,15,110,12,2 // movd (%rdx,%r8,1),%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,114,241,24 // pslld $0x18,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,54 // je 553 <_sk_load_a8_dst_sse2_8bit+0x74> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 53c <_sk_load_a8_dst_sse2_8bit+0x5d> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,221 // jne 50a <_sk_load_a8_dst_sse2_8bit+0x2b> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 242,15,16,202 // movsd %xmm2,%xmm1 .byte 235,183 // jmp 50a <_sk_load_a8_dst_sse2_8bit+0x2b> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 235,172 // jmp 50a <_sk_load_a8_dst_sse2_8bit+0x2b> HIDDEN _sk_store_a8_sse2_8bit .globl _sk_store_a8_sse2_8bit FUNCTION(_sk_store_a8_sse2_8bit) _sk_store_a8_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,114,210,24 // psrld $0x18,%xmm2 .byte 77,133,201 // test %r9,%r9 .byte 117,26 // jne 59e <_sk_store_a8_sse2_8bit+0x40> .byte 102,15,219,21,100,12,0,0 // pand 0xc64(%rip),%xmm2 # 11f0 <_sk_xor__sse2_8bit+0xf5> .byte 102,15,103,210 // packuswb %xmm2,%xmm2 .byte 102,15,103,210 // packuswb %xmm2,%xmm2 .byte 102,66,15,126,20,2 // movd %xmm2,(%rdx,%r8,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,54 // je 5de <_sk_store_a8_sse2_8bit+0x80> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 5c3 <_sk_store_a8_sse2_8bit+0x65> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,230 // jne 59a <_sk_store_a8_sse2_8bit+0x3c> .byte 102,15,127,84,36,232 // movdqa %xmm2,-0x18(%rsp) .byte 138,68,36,240 // mov -0x10(%rsp),%al .byte 66,136,68,2,2 // mov %al,0x2(%rdx,%r8,1) .byte 102,15,219,21,37,12,0,0 // pand 0xc25(%rip),%xmm2 # 11f0 <_sk_xor__sse2_8bit+0xf5> .byte 102,15,103,210 // packuswb %xmm2,%xmm2 .byte 102,15,103,210 // packuswb %xmm2,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,66,137,4,2 // mov %ax,(%rdx,%r8,1) .byte 235,188 // jmp 59a <_sk_store_a8_sse2_8bit+0x3c> .byte 102,15,127,84,36,216 // movdqa %xmm2,-0x28(%rsp) .byte 138,68,36,216 // mov -0x28(%rsp),%al .byte 66,136,4,2 // mov %al,(%rdx,%r8,1) .byte 235,172 // jmp 59a <_sk_store_a8_sse2_8bit+0x3c> HIDDEN _sk_load_g8_sse2_8bit .globl _sk_load_g8_sse2_8bit FUNCTION(_sk_load_g8_sse2_8bit) _sk_load_g8_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,69 // jne 650 <_sk_load_g8_sse2_8bit+0x62> .byte 102,66,15,110,4,2 // movd (%rdx,%r8,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 102,15,219,5,223,11,0,0 // pand 0xbdf(%rip),%xmm0 # 1200 <_sk_xor__sse2_8bit+0x105> .byte 102,15,111,21,231,11,0,0 // movdqa 0xbe7(%rip),%xmm2 # 1210 <_sk_xor__sse2_8bit+0x115> .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2 .byte 102,15,98,194 // punpckldq %xmm2,%xmm0 .byte 102,15,235,5,212,11,0,0 // por 0xbd4(%rip),%xmm0 # 1220 <_sk_xor__sse2_8bit+0x125> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,54 // je 690 <_sk_load_g8_sse2_8bit+0xa2> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 679 <_sk_load_g8_sse2_8bit+0x8b> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,175 // jne 619 <_sk_load_g8_sse2_8bit+0x2b> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 242,15,16,194 // movsd %xmm2,%xmm0 .byte 235,137 // jmp 619 <_sk_load_g8_sse2_8bit+0x2b> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 233,123,255,255,255 // jmpq 619 <_sk_load_g8_sse2_8bit+0x2b> HIDDEN _sk_load_g8_dst_sse2_8bit .globl _sk_load_g8_dst_sse2_8bit FUNCTION(_sk_load_g8_dst_sse2_8bit) _sk_load_g8_dst_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,69 // jne 700 <_sk_load_g8_dst_sse2_8bit+0x62> .byte 102,66,15,110,12,2 // movd (%rdx,%r8,1),%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,219,13,95,11,0,0 // pand 0xb5f(%rip),%xmm1 # 1230 <_sk_xor__sse2_8bit+0x135> .byte 102,15,111,21,103,11,0,0 // movdqa 0xb67(%rip),%xmm2 # 1240 <_sk_xor__sse2_8bit+0x145> .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2 .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,235,13,84,11,0,0 // por 0xb54(%rip),%xmm1 # 1250 <_sk_xor__sse2_8bit+0x155> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,54 // je 740 <_sk_load_g8_dst_sse2_8bit+0xa2> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 729 <_sk_load_g8_dst_sse2_8bit+0x8b> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,175 // jne 6c9 <_sk_load_g8_dst_sse2_8bit+0x2b> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,112,201,69 // pshufd $0x45,%xmm1,%xmm1 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 242,15,16,202 // movsd %xmm2,%xmm1 .byte 235,137 // jmp 6c9 <_sk_load_g8_dst_sse2_8bit+0x2b> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,200 // movd %eax,%xmm1 .byte 233,123,255,255,255 // jmpq 6c9 <_sk_load_g8_dst_sse2_8bit+0x2b> HIDDEN _sk_srcover_rgba_8888_sse2_8bit .globl _sk_srcover_rgba_8888_sse2_8bit FUNCTION(_sk_srcover_rgba_8888_sse2_8bit) _sk_srcover_rgba_8888_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,193,226,2 // shl $0x2,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,120 // jne 7e7 <_sk_srcover_rgba_8888_sse2_8bit+0x99> .byte 243,66,15,111,20,130 // movdqu (%rdx,%r8,4),%xmm2 .byte 77,133,201 // test %r9,%r9 .byte 242,15,112,216,231 // pshuflw $0xe7,%xmm0,%xmm3 .byte 243,15,112,219,231 // pshufhw $0xe7,%xmm3,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,96,219 // punpcklbw %xmm3,%xmm3 .byte 242,15,112,219,95 // pshuflw $0x5f,%xmm3,%xmm3 .byte 243,15,112,219,95 // pshufhw $0x5f,%xmm3,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,104,244 // punpckhbw %xmm4,%xmm6 .byte 102,15,111,251 // movdqa %xmm3,%xmm7 .byte 102,15,96,252 // punpcklbw %xmm4,%xmm7 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,222 // pmullw %xmm6,%xmm3 .byte 102,15,213,253 // pmullw %xmm5,%xmm7 .byte 102,15,253,253 // paddw %xmm5,%xmm7 .byte 102,15,253,222 // paddw %xmm6,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 .byte 102,15,103,251 // packuswb %xmm3,%xmm7 .byte 102,15,248,215 // psubb %xmm7,%xmm2 .byte 102,15,252,208 // paddb %xmm0,%xmm2 .byte 117,58 // jne 817 <_sk_srcover_rgba_8888_sse2_8bit+0xc9> .byte 243,66,15,127,20,130 // movdqu %xmm2,(%rdx,%r8,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 68,137,200 // mov %r9d,%eax .byte 36,3 // and $0x3,%al .byte 60,1 // cmp $0x1,%al .byte 116,81 // je 841 <_sk_srcover_rgba_8888_sse2_8bit+0xf3> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 60,2 // cmp $0x2,%al .byte 116,20 // je 80c <_sk_srcover_rgba_8888_sse2_8bit+0xbe> .byte 60,3 // cmp $0x3,%al .byte 15,133,117,255,255,255 // jne 775 <_sk_srcover_rgba_8888_sse2_8bit+0x27> .byte 102,66,15,110,84,130,8 // movd 0x8(%rdx,%r8,4),%xmm2 .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 .byte 102,66,15,18,20,130 // movlpd (%rdx,%r8,4),%xmm2 .byte 233,94,255,255,255 // jmpq 775 <_sk_srcover_rgba_8888_sse2_8bit+0x27> .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,43 // je 84c <_sk_srcover_rgba_8888_sse2_8bit+0xfe> .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,18 // je 839 <_sk_srcover_rgba_8888_sse2_8bit+0xeb> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,182 // jne 7e3 <_sk_srcover_rgba_8888_sse2_8bit+0x95> .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,66,15,126,92,130,8 // movd %xmm3,0x8(%rdx,%r8,4) .byte 102,66,15,214,20,130 // movq %xmm2,(%rdx,%r8,4) .byte 235,162 // jmp 7e3 <_sk_srcover_rgba_8888_sse2_8bit+0x95> .byte 102,66,15,110,20,130 // movd (%rdx,%r8,4),%xmm2 .byte 233,41,255,255,255 // jmpq 775 <_sk_srcover_rgba_8888_sse2_8bit+0x27> .byte 102,66,15,126,20,130 // movd %xmm2,(%rdx,%r8,4) .byte 235,143 // jmp 7e3 <_sk_srcover_rgba_8888_sse2_8bit+0x95> HIDDEN _sk_scale_1_float_sse2_8bit .globl _sk_scale_1_float_sse2_8bit FUNCTION(_sk_scale_1_float_sse2_8bit) _sk_scale_1_float_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,16 // movss (%rax),%xmm2 .byte 243,15,89,21,98,9,0,0 // mulss 0x962(%rip),%xmm2 # 11c4 <_sk_xor__sse2_8bit+0xc9> .byte 243,15,44,194 // cvttss2si %xmm2,%eax .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,110,216 // movd %eax,%xmm3 .byte 102,15,96,219 // punpcklbw %xmm3,%xmm3 .byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3 .byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3 .byte 102,15,219,29,208,9,0,0 // pand 0x9d0(%rip),%xmm3 # 1260 <_sk_xor__sse2_8bit+0x165> .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,213,224 // pmullw %xmm0,%xmm4 .byte 102,15,213,218 // pmullw %xmm2,%xmm3 .byte 102,15,253,211 // paddw %xmm3,%xmm2 .byte 102,15,253,224 // paddw %xmm0,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,212 // packuswb %xmm4,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_scale_u8_sse2_8bit .globl _sk_scale_u8_sse2_8bit FUNCTION(_sk_scale_u8_sse2_8bit) _sk_scale_u8_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 117,114 // jne 949 <_sk_scale_u8_sse2_8bit+0x8f> .byte 102,66,15,110,20,2 // movd (%rdx,%r8,1),%xmm2 .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,114,242,24 // pslld $0x18,%xmm2 .byte 242,15,112,210,231 // pshuflw $0xe7,%xmm2,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,218,95 // pshufhw $0x5f,%xmm2,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,57 // je 98c <_sk_scale_u8_sse2_8bit+0xd2> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,21 // je 972 <_sk_scale_u8_sse2_8bit+0xb8> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 117,130 // jne 8e5 <_sk_scale_u8_sse2_8bit+0x2b> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 242,15,16,211 // movsd %xmm3,%xmm2 .byte 233,89,255,255,255 // jmpq 8e5 <_sk_scale_u8_sse2_8bit+0x2b> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 233,75,255,255,255 // jmpq 8e5 <_sk_scale_u8_sse2_8bit+0x2b> HIDDEN _sk_lerp_1_float_sse2_8bit .globl _sk_lerp_1_float_sse2_8bit FUNCTION(_sk_lerp_1_float_sse2_8bit) _sk_lerp_1_float_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,15,16,16 // movss (%rax),%xmm2 .byte 243,15,89,21,32,8,0,0 // mulss 0x820(%rip),%xmm2 # 11c8 <_sk_xor__sse2_8bit+0xcd> .byte 243,15,44,194 // cvttss2si %xmm2,%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2 .byte 102,15,112,218,80 // pshufd $0x50,%xmm2,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,21,154,8,0,0 // movdqa 0x89a(%rip),%xmm2 # 1270 <_sk_xor__sse2_8bit+0x175> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,213,240 // pmullw %xmm0,%xmm6 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,240 // paddw %xmm0,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,214 // packuswb %xmm6,%xmm2 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,239,235 // pxor %xmm3,%xmm5 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,96,244 // punpcklbw %xmm4,%xmm6 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0 .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5 .byte 102,15,213,235 // pmullw %xmm3,%xmm5 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 .byte 102,15,253,198 // paddw %xmm6,%xmm0 .byte 102,15,253,235 // paddw %xmm3,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,197 // packuswb %xmm5,%xmm0 .byte 102,15,252,194 // paddb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_lerp_u8_sse2_8bit .globl _sk_lerp_u8_sse2_8bit FUNCTION(_sk_lerp_u8_sse2_8bit) _sk_lerp_u8_sse2_8bit: .byte 76,99,7 // movslq (%rdi),%r8 .byte 76,139,79,16 // mov 0x10(%rdi),%r9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 72,99,72,8 // movslq 0x8(%rax),%rcx .byte 72,99,87,8 // movslq 0x8(%rdi),%rdx .byte 72,15,175,209 // imul %rcx,%rdx .byte 72,3,16 // add (%rax),%rdx .byte 77,133,201 // test %r9,%r9 .byte 15,133,180,0,0,0 // jne b1b <_sk_lerp_u8_sse2_8bit+0xd5> .byte 102,66,15,110,20,2 // movd (%rdx,%r8,1),%xmm2 .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,114,242,24 // pslld $0x18,%xmm2 .byte 242,15,112,210,231 // pshuflw $0xe7,%xmm2,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,218,95 // pshufhw $0x5f,%xmm2,%xmm3 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4 .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6 .byte 102,15,239,243 // pxor %xmm3,%xmm6 .byte 102,15,96,218 // punpcklbw %xmm2,%xmm3 .byte 102,15,104,234 // punpckhbw %xmm2,%xmm5 .byte 102,15,213,232 // pmullw %xmm0,%xmm5 .byte 102,15,213,220 // pmullw %xmm4,%xmm3 .byte 102,15,253,220 // paddw %xmm4,%xmm3 .byte 102,15,253,232 // paddw %xmm0,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,103,221 // packuswb %xmm5,%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,104,234 // punpckhbw %xmm2,%xmm5 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0 .byte 102,15,104,242 // punpckhbw %xmm2,%xmm6 .byte 102,15,213,245 // pmullw %xmm5,%xmm6 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 .byte 102,15,253,196 // paddw %xmm4,%xmm0 .byte 102,15,253,245 // paddw %xmm5,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,198 // packuswb %xmm6,%xmm0 .byte 102,15,252,195 // paddb %xmm3,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b .byte 116,61 // je b62 <_sk_lerp_u8_sse2_8bit+0x11c> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,249,2 // cmp $0x2,%r9b .byte 116,25 // je b48 <_sk_lerp_u8_sse2_8bit+0x102> .byte 65,128,249,3 // cmp $0x3,%r9b .byte 15,133,60,255,255,255 // jne a75 <_sk_lerp_u8_sse2_8bit+0x2f> .byte 66,15,182,68,2,2 // movzbl 0x2(%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 .byte 66,15,183,4,2 // movzwl (%rdx,%r8,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 242,15,16,211 // movsd %xmm3,%xmm2 .byte 233,19,255,255,255 // jmpq a75 <_sk_lerp_u8_sse2_8bit+0x2f> .byte 66,15,182,4,2 // movzbl (%rdx,%r8,1),%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 233,5,255,255,255 // jmpq a75 <_sk_lerp_u8_sse2_8bit+0x2f> HIDDEN _sk_move_src_dst_sse2_8bit .globl _sk_move_src_dst_sse2_8bit FUNCTION(_sk_move_src_dst_sse2_8bit) _sk_move_src_dst_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_move_dst_src_sse2_8bit .globl _sk_move_dst_src_sse2_8bit FUNCTION(_sk_move_dst_src_sse2_8bit) _sk_move_dst_src_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_black_color_sse2_8bit .globl _sk_black_color_sse2_8bit FUNCTION(_sk_black_color_sse2_8bit) _sk_black_color_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,5,249,6,0,0 // movaps 0x6f9(%rip),%xmm0 # 1280 <_sk_xor__sse2_8bit+0x185> .byte 255,224 // jmpq *%rax HIDDEN _sk_white_color_sse2_8bit .globl _sk_white_color_sse2_8bit FUNCTION(_sk_white_color_sse2_8bit) _sk_white_color_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_clear_sse2_8bit .globl _sk_clear_sse2_8bit FUNCTION(_sk_clear_sse2_8bit) _sk_clear_sse2_8bit: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcatop_sse2_8bit .globl _sk_srcatop_sse2_8bit FUNCTION(_sk_srcatop_sse2_8bit) _sk_srcatop_sse2_8bit: .byte 242,15,112,209,231 // pshuflw $0xe7,%xmm1,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,226,95 // pshufhw $0x5f,%xmm2,%xmm4 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5 .byte 242,15,112,240,231 // pshuflw $0xe7,%xmm0,%xmm6 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,213,224 // pmullw %xmm0,%xmm4 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,224 // paddw %xmm0,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,212 // packuswb %xmm4,%xmm2 .byte 243,15,112,198,231 // pshufhw $0xe7,%xmm6,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0 .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0 .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4 .byte 102,15,239,224 // pxor %xmm0,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,213,229 // pmullw %xmm5,%xmm4 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 .byte 102,15,253,198 // paddw %xmm6,%xmm0 .byte 102,15,253,229 // paddw %xmm5,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,196 // packuswb %xmm4,%xmm0 .byte 102,15,252,194 // paddb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstatop_sse2_8bit .globl _sk_dstatop_sse2_8bit FUNCTION(_sk_dstatop_sse2_8bit) _sk_dstatop_sse2_8bit: .byte 242,15,112,208,231 // pshuflw $0xe7,%xmm0,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,210,95 // pshufhw $0x5f,%xmm2,%xmm2 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 242,15,112,233,231 // pshuflw $0xe7,%xmm1,%xmm5 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6 .byte 102,15,111,250 // movdqa %xmm2,%xmm7 .byte 102,15,96,251 // punpcklbw %xmm3,%xmm7 .byte 102,15,213,254 // pmullw %xmm6,%xmm7 .byte 102,15,253,254 // paddw %xmm6,%xmm7 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 .byte 102,15,103,250 // packuswb %xmm2,%xmm7 .byte 243,15,112,213,231 // pshufhw $0xe7,%xmm5,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,210,95 // pshufhw $0x5f,%xmm2,%xmm2 .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4 .byte 102,15,239,226 // pxor %xmm2,%xmm4 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,213,224 // pmullw %xmm0,%xmm4 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,224 // paddw %xmm0,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,212 // packuswb %xmm4,%xmm2 .byte 102,15,252,215 // paddb %xmm7,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_srcin_sse2_8bit .globl _sk_srcin_sse2_8bit FUNCTION(_sk_srcin_sse2_8bit) _sk_srcin_sse2_8bit: .byte 242,15,112,209,231 // pshuflw $0xe7,%xmm1,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,218,95 // pshufhw $0x5f,%xmm2,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_dstin_sse2_8bit .globl _sk_dstin_sse2_8bit FUNCTION(_sk_dstin_sse2_8bit) _sk_dstin_sse2_8bit: .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0 .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0 .byte 243,15,112,208,95 // pshufhw $0x5f,%xmm0,%xmm2 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,213,197 // pmullw %xmm5,%xmm0 .byte 102,15,253,197 // paddw %xmm5,%xmm0 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,194 // packuswb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcout_sse2_8bit .globl _sk_srcout_sse2_8bit FUNCTION(_sk_srcout_sse2_8bit) _sk_srcout_sse2_8bit: .byte 242,15,112,209,231 // pshuflw $0xe7,%xmm1,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,210,95 // pshufhw $0x5f,%xmm2,%xmm2 .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3 .byte 102,15,239,218 // pxor %xmm2,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,216 // pmullw %xmm0,%xmm3 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,211 // packuswb %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_dstout_sse2_8bit .globl _sk_dstout_sse2_8bit FUNCTION(_sk_dstout_sse2_8bit) _sk_dstout_sse2_8bit: .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0 .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0 .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0 .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2 .byte 102,15,239,208 // pxor %xmm0,%xmm2 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,213,197 // pmullw %xmm5,%xmm0 .byte 102,15,253,197 // paddw %xmm5,%xmm0 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,194 // packuswb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_srcover_sse2_8bit .globl _sk_srcover_sse2_8bit FUNCTION(_sk_srcover_sse2_8bit) _sk_srcover_sse2_8bit: .byte 242,15,112,208,231 // pshuflw $0xe7,%xmm0,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,210,95 // pshufhw $0x5f,%xmm2,%xmm2 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,252,193 // paddb %xmm1,%xmm0 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,213,212 // pmullw %xmm4,%xmm2 .byte 102,15,213,245 // pmullw %xmm5,%xmm6 .byte 102,15,253,245 // paddw %xmm5,%xmm6 .byte 102,15,253,212 // paddw %xmm4,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,103,242 // packuswb %xmm2,%xmm6 .byte 102,15,248,198 // psubb %xmm6,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_dstover_sse2_8bit .globl _sk_dstover_sse2_8bit FUNCTION(_sk_dstover_sse2_8bit) _sk_dstover_sse2_8bit: .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0 .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0 .byte 243,15,112,216,95 // pshufhw $0x5f,%xmm0,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,252,194 // paddb %xmm2,%xmm0 .byte 102,15,104,212 // punpckhbw %xmm4,%xmm2 .byte 102,15,111,243 // movdqa %xmm3,%xmm6 .byte 102,15,96,244 // punpcklbw %xmm4,%xmm6 .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3 .byte 102,15,213,218 // pmullw %xmm2,%xmm3 .byte 102,15,213,245 // pmullw %xmm5,%xmm6 .byte 102,15,253,245 // paddw %xmm5,%xmm6 .byte 102,15,253,218 // paddw %xmm2,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,103,243 // packuswb %xmm3,%xmm6 .byte 102,15,248,198 // psubb %xmm6,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_modulate_sse2_8bit .globl _sk_modulate_sse2_8bit FUNCTION(_sk_modulate_sse2_8bit) _sk_modulate_sse2_8bit: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,213,224 // pmullw %xmm0,%xmm4 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,253,213 // paddw %xmm5,%xmm2 .byte 102,15,253,224 // paddw %xmm0,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,212 // packuswb %xmm4,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_multiply_sse2_8bit .globl _sk_multiply_sse2_8bit FUNCTION(_sk_multiply_sse2_8bit) _sk_multiply_sse2_8bit: .byte 242,15,112,209,231 // pshuflw $0xe7,%xmm1,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,242,95 // pshufhw $0x5f,%xmm2,%xmm6 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,239,245 // pxor %xmm5,%xmm6 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,65,15,96,216 // punpcklbw %xmm8,%xmm3 .byte 242,15,112,248,231 // pshuflw $0xe7,%xmm0,%xmm7 .byte 102,65,15,104,192 // punpckhbw %xmm8,%xmm0 .byte 102,15,111,230 // movdqa %xmm6,%xmm4 .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4 .byte 102,65,15,104,240 // punpckhbw %xmm8,%xmm6 .byte 102,15,213,240 // pmullw %xmm0,%xmm6 .byte 102,15,213,227 // pmullw %xmm3,%xmm4 .byte 102,15,253,227 // paddw %xmm3,%xmm4 .byte 102,15,253,240 // paddw %xmm0,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,103,230 // packuswb %xmm6,%xmm4 .byte 243,15,112,247,231 // pshufhw $0xe7,%xmm7,%xmm6 .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6 .byte 102,15,96,246 // punpcklbw %xmm6,%xmm6 .byte 242,15,112,246,95 // pshuflw $0x5f,%xmm6,%xmm6 .byte 243,15,112,214,95 // pshufhw $0x5f,%xmm6,%xmm2 .byte 102,15,239,213 // pxor %xmm5,%xmm2 .byte 102,15,111,249 // movdqa %xmm1,%xmm7 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6 .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5 .byte 102,65,15,104,208 // punpckhbw %xmm8,%xmm2 .byte 102,15,213,215 // pmullw %xmm7,%xmm2 .byte 102,15,213,238 // pmullw %xmm6,%xmm5 .byte 102,15,253,238 // paddw %xmm6,%xmm5 .byte 102,15,253,215 // paddw %xmm7,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,103,234 // packuswb %xmm2,%xmm5 .byte 102,15,252,236 // paddb %xmm4,%xmm5 .byte 102,15,213,248 // pmullw %xmm0,%xmm7 .byte 102,15,213,243 // pmullw %xmm3,%xmm6 .byte 102,15,253,243 // paddw %xmm3,%xmm6 .byte 102,15,253,248 // paddw %xmm0,%xmm7 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,103,247 // packuswb %xmm7,%xmm6 .byte 102,15,252,238 // paddb %xmm6,%xmm5 .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_screen_sse2_8bit .globl _sk_screen_sse2_8bit FUNCTION(_sk_screen_sse2_8bit) _sk_screen_sse2_8bit: .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2 .byte 102,15,239,208 // pxor %xmm0,%xmm2 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,226 // movdqa %xmm2,%xmm4 .byte 102,15,96,227 // punpcklbw %xmm3,%xmm4 .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,213,234 // pmullw %xmm2,%xmm5 .byte 102,15,213,244 // pmullw %xmm4,%xmm6 .byte 102,15,253,230 // paddw %xmm6,%xmm4 .byte 102,15,253,234 // paddw %xmm2,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,103,229 // packuswb %xmm5,%xmm4 .byte 102,15,252,196 // paddb %xmm4,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax HIDDEN _sk_xor__sse2_8bit .globl _sk_xor__sse2_8bit FUNCTION(_sk_xor__sse2_8bit) _sk_xor__sse2_8bit: .byte 242,15,112,209,231 // pshuflw $0xe7,%xmm1,%xmm2 .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2 .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2 .byte 243,15,112,234,95 // pshufhw $0x5f,%xmm2,%xmm5 .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4 .byte 102,15,239,236 // pxor %xmm4,%xmm5 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,111,240 // movdqa %xmm0,%xmm6 .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6 .byte 242,15,112,248,231 // pshuflw $0xe7,%xmm0,%xmm7 .byte 102,15,104,195 // punpckhbw %xmm3,%xmm0 .byte 102,15,111,213 // movdqa %xmm5,%xmm2 .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,213,232 // pmullw %xmm0,%xmm5 .byte 102,15,213,214 // pmullw %xmm6,%xmm2 .byte 102,15,253,214 // paddw %xmm6,%xmm2 .byte 102,15,253,232 // paddw %xmm0,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,103,213 // packuswb %xmm5,%xmm2 .byte 243,15,112,199,231 // pshufhw $0xe7,%xmm7,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0 .byte 243,15,112,232,95 // pshufhw $0x5f,%xmm0,%xmm5 .byte 102,15,239,236 // pxor %xmm4,%xmm5 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6 .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0 .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5 .byte 102,15,213,236 // pmullw %xmm4,%xmm5 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 .byte 102,15,253,198 // paddw %xmm6,%xmm0 .byte 102,15,253,236 // paddw %xmm4,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,103,197 // packuswb %xmm5,%xmm0 .byte 102,15,252,194 // paddb %xmm2,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax BALIGN4 .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 1207 <_sk_xor__sse2_8bit+0x10c> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 120b <_sk_xor__sse2_8bit+0x110> .byte 0,0 // add %al,(%rax) .byte 127,67 // jg 120f <_sk_xor__sse2_8bit+0x114> BALIGN16 .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 1,1 // add %eax,(%rcx) .byte 1,0 // add %eax,(%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 0,255 // add %bh,%bh #elif defined(__i386__) BALIGN32 HIDDEN _sk_start_pipeline_sse2 .globl _sk_start_pipeline_sse2 FUNCTION(_sk_start_pipeline_sse2) _sk_start_pipeline_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,92 // sub $0x5c,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 59,69,20 // cmp 0x14(%ebp),%eax .byte 115,118 // jae 87 <_sk_start_pipeline_sse2+0x87> .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,117,24 // mov 0x18(%ebp),%esi .byte 139,62 // mov (%esi),%edi .byte 131,198,4 // add $0x4,%esi .byte 141,73,4 // lea 0x4(%ecx),%ecx .byte 137,77,240 // mov %ecx,-0x10(%ebp) .byte 57,85,240 // cmp %edx,-0x10(%ebp) .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 137,77,152 // mov %ecx,-0x68(%ebp) .byte 137,69,236 // mov %eax,-0x14(%ebp) .byte 137,69,156 // mov %eax,-0x64(%ebp) .byte 199,69,160,0,0,0,0 // movl $0x0,-0x60(%ebp) .byte 139,69,28 // mov 0x1c(%ebp),%eax .byte 137,69,164 // mov %eax,-0x5c(%ebp) .byte 137,200 // mov %ecx,%eax .byte 141,93,152 // lea -0x68(%ebp),%ebx .byte 119,29 // ja 65 <_sk_start_pipeline_sse2+0x65> .byte 131,236,8 // sub $0x8,%esp .byte 86 // push %esi .byte 83 // push %ebx .byte 255,215 // call *%edi .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 131,196,16 // add $0x10,%esp .byte 139,77,152 // mov -0x68(%ebp),%ecx .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 137,69,152 // mov %eax,-0x68(%ebp) .byte 131,193,8 // add $0x8,%ecx .byte 57,209 // cmp %edx,%ecx .byte 118,227 // jbe 48 <_sk_start_pipeline_sse2+0x48> .byte 137,209 // mov %edx,%ecx .byte 41,193 // sub %eax,%ecx .byte 116,19 // je 7e <_sk_start_pipeline_sse2+0x7e> .byte 137,77,160 // mov %ecx,-0x60(%ebp) .byte 131,236,8 // sub $0x8,%esp .byte 86 // push %esi .byte 141,69,152 // lea -0x68(%ebp),%eax .byte 80 // push %eax .byte 255,215 // call *%edi .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 131,196,16 // add $0x10,%esp .byte 139,69,236 // mov -0x14(%ebp),%eax .byte 64 // inc %eax .byte 59,69,20 // cmp 0x14(%ebp),%eax .byte 117,158 // jne 25 <_sk_start_pipeline_sse2+0x25> .byte 131,196,92 // add $0x5c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_just_return_sse2 .globl _sk_just_return_sse2 FUNCTION(_sk_just_return_sse2) _sk_just_return_sse2: .byte 195 // ret HIDDEN _sk_seed_shader_sse2 .globl _sk_seed_shader_sse2 FUNCTION(_sk_seed_shader_sse2) _sk_seed_shader_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 9a <_sk_seed_shader_sse2+0xa> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 139,114,12 // mov 0xc(%edx),%esi .byte 102,15,110,2 // movd (%edx),%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 15,40,144,6,145,0,0 // movaps 0x9106(%eax),%xmm2 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 102,15,110,74,4 // movd 0x4(%edx),%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 141,113,4 // lea 0x4(%ecx),%esi .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,41,82,64 // movaps %xmm2,0x40(%edx) .byte 15,41,82,48 // movaps %xmm2,0x30(%edx) .byte 15,41,82,32 // movaps %xmm2,0x20(%edx) .byte 15,41,82,16 // movaps %xmm2,0x10(%edx) .byte 131,236,8 // sub $0x8,%esp .byte 15,40,144,22,145,0,0 // movaps 0x9116(%eax),%xmm2 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 86 // push %esi .byte 82 // push %edx .byte 255,17 // call *(%ecx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_dither_sse2 .globl _sk_dither_sse2 FUNCTION(_sk_dither_sse2) _sk_dither_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 131,236,36 // sub $0x24,%esp .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 232,0,0,0,0 // call 117 <_sk_dither_sse2+0x1a> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,80,12 // mov 0xc(%eax),%edx .byte 102,15,110,32 // movd (%eax),%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 243,15,111,106,32 // movdqu 0x20(%edx),%xmm5 .byte 102,15,254,236 // paddd %xmm4,%xmm5 .byte 102,15,110,96,4 // movd 0x4(%eax),%xmm4 .byte 102,15,112,252,0 // pshufd $0x0,%xmm4,%xmm7 .byte 102,15,239,253 // pxor %xmm5,%xmm7 .byte 102,15,111,177,169,144,0,0 // movdqa 0x90a9(%ecx),%xmm6 .byte 102,15,111,207 // movdqa %xmm7,%xmm1 .byte 102,15,219,206 // pand %xmm6,%xmm1 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 102,15,111,129,201,144,0,0 // movdqa 0x90c9(%ecx),%xmm0 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,219,224 // pand %xmm0,%xmm4 .byte 102,15,219,197 // pand %xmm5,%xmm0 .byte 102,15,219,185,185,144,0,0 // pand 0x90b9(%ecx),%xmm7 .byte 102,15,219,169,185,144,0,0 // pand 0x90b9(%ecx),%xmm5 .byte 102,15,114,246,4 // pslld $0x4,%xmm6 .byte 102,15,254,192 // paddd %xmm0,%xmm0 .byte 102,15,235,198 // por %xmm6,%xmm0 .byte 102,15,114,213,2 // psrld $0x2,%xmm5 .byte 102,15,235,197 // por %xmm5,%xmm0 .byte 102,15,114,241,5 // pslld $0x5,%xmm1 .byte 102,15,114,244,2 // pslld $0x2,%xmm4 .byte 102,15,235,225 // por %xmm1,%xmm4 .byte 102,15,235,224 // por %xmm0,%xmm4 .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 102,15,114,215,1 // psrld $0x1,%xmm7 .byte 102,15,235,231 // por %xmm7,%xmm4 .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0 .byte 15,89,129,217,144,0,0 // mulps 0x90d9(%ecx),%xmm0 .byte 15,88,129,233,144,0,0 // addps 0x90e9(%ecx),%xmm0 .byte 243,15,16,14 // movss (%esi),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1 .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,93,208 // minps %xmm0,%xmm2 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 15,95,234 // maxps %xmm2,%xmm5 .byte 15,93,216 // minps %xmm0,%xmm3 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,95,227 // maxps %xmm3,%xmm4 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,93,200 // minps %xmm0,%xmm1 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,95,209 // maxps %xmm1,%xmm2 .byte 141,74,8 // lea 0x8(%edx),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 81 // push %ecx .byte 80 // push %eax .byte 255,82,4 // call *0x4(%edx) .byte 131,196,52 // add $0x34,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_uniform_color_sse2 .globl _sk_uniform_color_sse2 FUNCTION(_sk_uniform_color_sse2) _sk_uniform_color_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_black_color_sse2 .globl _sk_black_color_sse2 FUNCTION(_sk_black_color_sse2) _sk_black_color_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 257 <_sk_black_color_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,152,185,143,0,0 // movaps 0x8fb9(%eax),%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 82 // push %edx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_white_color_sse2 .globl _sk_white_color_sse2 FUNCTION(_sk_white_color_sse2) _sk_white_color_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 287 <_sk_white_color_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,128,153,143,0,0 // movaps 0x8f99(%eax),%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 82 // push %edx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_load_rgba_sse2 .globl _sk_load_rgba_sse2 FUNCTION(_sk_load_rgba_sse2) _sk_load_rgba_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 15,16,1 // movups (%ecx),%xmm0 .byte 15,16,73,16 // movups 0x10(%ecx),%xmm1 .byte 15,16,81,32 // movups 0x20(%ecx),%xmm2 .byte 15,16,89,48 // movups 0x30(%ecx),%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_rgba_sse2 .globl _sk_store_rgba_sse2 FUNCTION(_sk_store_rgba_sse2) _sk_store_rgba_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 15,17,2 // movups %xmm0,(%edx) .byte 15,17,74,16 // movups %xmm1,0x10(%edx) .byte 15,17,82,32 // movups %xmm2,0x20(%edx) .byte 15,17,90,48 // movups %xmm3,0x30(%edx) .byte 141,81,8 // lea 0x8(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 80 // push %eax .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clear_sse2 .globl _sk_clear_sse2 FUNCTION(_sk_clear_sse2) _sk_clear_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_srcatop_sse2 .globl _sk_srcatop_sse2 FUNCTION(_sk_srcatop_sse2) _sk_srcatop_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 336 <_sk_srcatop_sse2+0xb> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,170,250,142,0,0 // movaps 0x8efa(%edx),%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_dstatop_sse2 .globl _sk_dstatop_sse2 FUNCTION(_sk_dstatop_sse2) _sk_dstatop_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 395 <_sk_dstatop_sse2+0xb> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5 .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,40,162,171,142,0,0 // movaps 0x8eab(%edx),%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_srcin_sse2 .globl _sk_srcin_sse2 FUNCTION(_sk_srcin_sse2) _sk_srcin_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_dstin_sse2 .globl _sk_dstin_sse2 FUNCTION(_sk_dstin_sse2) _sk_dstin_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,40,73,32 // movaps 0x20(%ecx),%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,40,81,48 // movaps 0x30(%ecx),%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,89,89,64 // mulps 0x40(%ecx),%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_srcout_sse2 .globl _sk_srcout_sse2 FUNCTION(_sk_srcout_sse2) _sk_srcout_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 456 <_sk_srcout_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,160,250,141,0,0 // movaps 0x8dfa(%eax),%xmm4 .byte 15,92,98,64 // subps 0x40(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 82 // push %edx .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_dstout_sse2 .globl _sk_dstout_sse2 FUNCTION(_sk_dstout_sse2) _sk_dstout_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 48e <_sk_dstout_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,160,210,141,0,0 // movaps 0x8dd2(%eax),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,66,16 // movaps 0x10(%edx),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,74,32 // movaps 0x20(%edx),%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,40,82,48 // movaps 0x30(%edx),%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,89,98,64 // mulps 0x40(%edx),%xmm4 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 80 // push %eax .byte 82 // push %edx .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_srcover_sse2 .globl _sk_srcover_sse2 FUNCTION(_sk_srcover_sse2) _sk_srcover_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 4d5 <_sk_srcover_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,160,155,141,0,0 // movaps 0x8d9b(%eax),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,40,106,32 // movaps 0x20(%edx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,40,106,48 // movaps 0x30(%edx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,89,98,64 // mulps 0x40(%edx),%xmm4 .byte 15,88,220 // addps %xmm4,%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 82 // push %edx .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_dstover_sse2 .globl _sk_dstover_sse2 FUNCTION(_sk_dstover_sse2) _sk_dstover_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 525 <_sk_dstover_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,106,64 // movaps 0x40(%edx),%xmm5 .byte 15,40,160,91,141,0,0 // movaps 0x8d5b(%eax),%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,66,16 // addps 0x10(%edx),%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,74,32 // addps 0x20(%edx),%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,82,48 // addps 0x30(%edx),%xmm2 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 80 // push %eax .byte 82 // push %edx .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_modulate_sse2 .globl _sk_modulate_sse2 FUNCTION(_sk_modulate_sse2) _sk_modulate_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,89,65,16 // mulps 0x10(%ecx),%xmm0 .byte 15,89,73,32 // mulps 0x20(%ecx),%xmm1 .byte 15,89,81,48 // mulps 0x30(%ecx),%xmm2 .byte 15,89,89,64 // mulps 0x40(%ecx),%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_multiply_sse2 .globl _sk_multiply_sse2 FUNCTION(_sk_multiply_sse2) _sk_multiply_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,56 // sub $0x38,%esp .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 232,0,0,0,0 // call 5a4 <_sk_multiply_sse2+0x12> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,40,129,236,140,0,0 // movaps 0x8cec(%ecx),%xmm0 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,40,96,32 // movaps 0x20(%eax),%xmm4 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,89,252 // mulps %xmm4,%xmm7 .byte 15,88,250 // addps %xmm2,%xmm7 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,40,96,48 // movaps 0x30(%eax),%xmm4 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,89,252 // mulps %xmm4,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 131,196,72 // add $0x48,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_plus__sse2 .globl _sk_plus__sse2 FUNCTION(_sk_plus__sse2) _sk_plus__sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,88,65,16 // addps 0x10(%ecx),%xmm0 .byte 15,88,73,32 // addps 0x20(%ecx),%xmm1 .byte 15,88,81,48 // addps 0x30(%ecx),%xmm2 .byte 15,88,89,64 // addps 0x40(%ecx),%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_screen_sse2 .globl _sk_screen_sse2 FUNCTION(_sk_screen_sse2) _sk_screen_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,88,233 // addps %xmm1,%xmm5 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,92,238 // subps %xmm6,%xmm5 .byte 15,40,65,48 // movaps 0x30(%ecx),%xmm0 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,40,65,64 // movaps 0x40(%ecx),%xmm0 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_xor__sse2 .globl _sk_xor__sse2 FUNCTION(_sk_xor__sse2) _sk_xor__sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 232,0,0,0,0 // call 6df <_sk_xor__sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5 .byte 15,40,154,193,139,0,0 // movaps 0x8bc1(%edx),%xmm3 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,40,121,16 // movaps 0x10(%ecx),%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,40,121,48 // movaps 0x30(%ecx),%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,88,222 // addps %xmm6,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_darken_sse2 .globl _sk_darken_sse2 FUNCTION(_sk_darken_sse2) _sk_darken_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 232,0,0,0,0 // call 747 <_sk_darken_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6 .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,95,229 // maxps %xmm5,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,95,207 // maxps %xmm7,%xmm1 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,95,209 // maxps %xmm1,%xmm2 .byte 15,92,234 // subps %xmm2,%xmm5 .byte 15,40,138,105,139,0,0 // movaps 0x8b69(%edx),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_lighten_sse2 .globl _sk_lighten_sse2 FUNCTION(_sk_lighten_sse2) _sk_lighten_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 232,0,0,0,0 // call 7c7 <_sk_lighten_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6 .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,93,229 // minps %xmm5,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,93,207 // minps %xmm7,%xmm1 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,93,209 // minps %xmm1,%xmm2 .byte 15,92,234 // subps %xmm2,%xmm5 .byte 15,40,138,249,138,0,0 // movaps 0x8af9(%edx),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_difference_sse2 .globl _sk_difference_sse2 FUNCTION(_sk_difference_sse2) _sk_difference_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 232,0,0,0,0 // call 84a <_sk_difference_sse2+0x11> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5 .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6 .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,93,206 // minps %xmm6,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,93,231 // minps %xmm7,%xmm4 .byte 15,88,228 // addps %xmm4,%xmm4 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,88,226 // addps %xmm2,%xmm4 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,93,214 // minps %xmm6,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,40,146,134,138,0,0 // movaps 0x8a86(%edx),%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_exclusion_sse2 .globl _sk_exclusion_sse2 FUNCTION(_sk_exclusion_sse2) _sk_exclusion_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 232,0,0,0,0 // call 8d0 <_sk_exclusion_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,237 // addps %xmm5,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,88,246 // addps %xmm6,%xmm6 .byte 15,92,230 // subps %xmm6,%xmm4 .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,40,138,16,138,0,0 // movaps 0x8a10(%edx),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_colorburn_sse2 .globl _sk_colorburn_sse2 FUNCTION(_sk_colorburn_sse2) _sk_colorburn_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,120 // sub $0x78,%esp .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp) .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp) .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp) .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 232,0,0,0,0 // call 953 <_sk_colorburn_sse2+0x1d> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,64,64 // movaps 0x40(%eax),%xmm0 .byte 15,40,96,16 // movaps 0x10(%eax),%xmm4 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,94,211 // divps %xmm3,%xmm2 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,93,242 // minps %xmm2,%xmm6 .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp) .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,238 // subps %xmm6,%xmm5 .byte 15,40,177,157,137,0,0 // movaps 0x899d(%ecx),%xmm6 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 15,88,239 // addps %xmm7,%xmm5 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1 .byte 15,84,217 // andps %xmm1,%xmm3 .byte 15,85,205 // andnps %xmm5,%xmm1 .byte 15,86,203 // orps %xmm3,%xmm1 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,41,117,232 // movaps %xmm6,-0x18(%ebp) .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 15,194,211,0 // cmpeqps %xmm3,%xmm2 .byte 15,84,226 // andps %xmm2,%xmm4 .byte 15,85,209 // andnps %xmm1,%xmm2 .byte 15,86,212 // orps %xmm4,%xmm2 .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1 .byte 15,94,217 // divps %xmm1,%xmm3 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,93,227 // minps %xmm3,%xmm4 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,88,220 // addps %xmm4,%xmm3 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,194,231,0 // cmpeqps %xmm7,%xmm4 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 15,85,227 // andnps %xmm3,%xmm4 .byte 15,86,225 // orps %xmm1,%xmm4 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,227 // addps %xmm3,%xmm4 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,194,250,0 // cmpeqps %xmm2,%xmm7 .byte 15,84,247 // andps %xmm7,%xmm6 .byte 15,85,252 // andnps %xmm4,%xmm7 .byte 15,86,254 // orps %xmm6,%xmm7 .byte 15,40,96,48 // movaps 0x30(%eax),%xmm4 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5 .byte 15,94,205 // divps %xmm5,%xmm1 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,93,217 // minps %xmm1,%xmm3 .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 15,194,226,0 // cmpeqps %xmm2,%xmm4 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,85,216 // addps -0x28(%ebp),%xmm2 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,194,197,0 // cmpeqps %xmm5,%xmm0 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,85,194 // andnps %xmm2,%xmm0 .byte 15,86,197 // orps %xmm5,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 15,85,224 // andnps %xmm0,%xmm4 .byte 15,86,225 // orps %xmm1,%xmm4 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,88,109,232 // addps -0x18(%ebp),%xmm5 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 129,196,136,0,0,0 // add $0x88,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_colordodge_sse2 .globl _sk_colordodge_sse2 FUNCTION(_sk_colordodge_sse2) _sk_colordodge_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,104 // sub $0x68,%esp .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 232,0,0,0,0 // call ae9 <_sk_colordodge_sse2+0x16> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5 .byte 15,40,177,23,136,0,0 // movaps 0x8817(%ecx),%xmm6 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp) .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp) .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,94,233 // divps %xmm1,%xmm5 .byte 15,40,96,64 // movaps 0x40(%eax),%xmm4 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,93,205 // minps %xmm5,%xmm1 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,194,239,0 // cmpeqps %xmm7,%xmm5 .byte 15,84,197 // andps %xmm5,%xmm0 .byte 15,85,233 // andnps %xmm1,%xmm5 .byte 15,86,232 // orps %xmm0,%xmm5 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 15,194,216,0 // cmpeqps %xmm0,%xmm3 .byte 15,84,211 // andps %xmm3,%xmm2 .byte 15,85,221 // andnps %xmm5,%xmm3 .byte 15,86,218 // orps %xmm2,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0 .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 .byte 15,92,218 // subps %xmm2,%xmm3 .byte 15,94,195 // divps %xmm3,%xmm0 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,93,216 // minps %xmm0,%xmm3 .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0 .byte 15,84,208 // andps %xmm0,%xmm2 .byte 15,85,195 // andnps %xmm3,%xmm0 .byte 15,86,194 // orps %xmm2,%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,194,234,0 // cmpeqps %xmm2,%xmm5 .byte 15,84,245 // andps %xmm5,%xmm6 .byte 15,85,232 // andnps %xmm0,%xmm5 .byte 15,86,238 // orps %xmm6,%xmm5 .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1 .byte 15,194,209,0 // cmpeqps %xmm1,%xmm2 .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp) .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,94,206 // divps %xmm6,%xmm1 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,93,225 // minps %xmm1,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1 .byte 15,84,209 // andps %xmm1,%xmm2 .byte 15,85,204 // andnps %xmm4,%xmm1 .byte 15,86,202 // orps %xmm2,%xmm1 .byte 15,88,77,168 // addps -0x58(%ebp),%xmm1 .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 .byte 15,84,218 // andps %xmm2,%xmm3 .byte 15,85,209 // andnps %xmm1,%xmm2 .byte 15,86,211 // orps %xmm3,%xmm2 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 131,196,120 // add $0x78,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_hardlight_sse2 .globl _sk_hardlight_sse2 FUNCTION(_sk_hardlight_sse2) _sk_hardlight_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,88 // sub $0x58,%esp .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp) .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 232,0,0,0,0 // call c55 <_sk_hardlight_sse2+0x16> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1 .byte 15,40,145,187,134,0,0 // movaps 0x86bb(%ecx),%xmm2 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,40,88,16 // movaps 0x10(%eax),%xmm3 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,41,125,184 // movaps %xmm7,-0x48(%ebp) .byte 15,88,228 // addps %xmm4,%xmm4 .byte 15,92,252 // subps %xmm4,%xmm7 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,88,228 // addps %xmm4,%xmm4 .byte 15,194,230,2 // cmpleps %xmm6,%xmm4 .byte 15,88,219 // addps %xmm3,%xmm3 .byte 15,84,220 // andps %xmm4,%xmm3 .byte 15,85,231 // andnps %xmm7,%xmm4 .byte 15,86,227 // orps %xmm3,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,40,88,32 // movaps 0x20(%eax),%xmm3 .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,255 // addps %xmm7,%xmm7 .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,194,206,2 // cmpleps %xmm6,%xmm1 .byte 15,88,219 // addps %xmm3,%xmm3 .byte 15,84,217 // andps %xmm1,%xmm3 .byte 15,85,202 // andnps %xmm2,%xmm1 .byte 15,86,203 // orps %xmm3,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2 .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 15,88,237 // addps %xmm5,%xmm5 .byte 15,194,238,2 // cmpleps %xmm6,%xmm5 .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,222 // addps %xmm6,%xmm3 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,246 // addps %xmm6,%xmm6 .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 15,84,213 // andps %xmm5,%xmm2 .byte 15,85,239 // andnps %xmm7,%xmm5 .byte 15,86,234 // orps %xmm2,%xmm5 .byte 15,88,109,232 // addps -0x18(%ebp),%xmm5 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 131,196,104 // add $0x68,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_overlay_sse2 .globl _sk_overlay_sse2 FUNCTION(_sk_overlay_sse2) _sk_overlay_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,104 // sub $0x68,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp) .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 232,0,0,0,0 // call da0 <_sk_overlay_sse2+0x1a> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2 .byte 15,40,161,128,133,0,0 // movaps 0x8580(%ecx),%xmm4 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp) .byte 15,40,64,16 // movaps 0x10(%eax),%xmm0 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp) .byte 15,88,228 // addps %xmm4,%xmm4 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,194,202,2 // cmpleps %xmm2,%xmm1 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,84,193 // andps %xmm1,%xmm0 .byte 15,85,205 // andnps %xmm5,%xmm1 .byte 15,86,200 // orps %xmm0,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,40,88,32 // movaps 0x20(%eax),%xmm3 .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,255 // addps %xmm7,%xmm7 .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,88,237 // addps %xmm5,%xmm5 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,194,239,2 // cmpleps %xmm7,%xmm5 .byte 15,88,219 // addps %xmm3,%xmm3 .byte 15,84,221 // andps %xmm5,%xmm3 .byte 15,85,233 // andnps %xmm1,%xmm5 .byte 15,86,235 // orps %xmm3,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1 .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,88,246 // addps %xmm6,%xmm6 .byte 15,194,247,2 // cmpleps %xmm7,%xmm6 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,92,249 // subps %xmm1,%xmm7 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 15,88,227 // addps %xmm3,%xmm4 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,219 // addps %xmm3,%xmm3 .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7 .byte 15,92,251 // subps %xmm3,%xmm7 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,84,206 // andps %xmm6,%xmm1 .byte 15,85,247 // andnps %xmm7,%xmm6 .byte 15,86,241 // orps %xmm1,%xmm6 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 131,196,120 // add $0x78,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_softlight_sse2 .globl _sk_softlight_sse2 FUNCTION(_sk_softlight_sse2) _sk_softlight_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 129,236,184,0,0,0 // sub $0xb8,%esp .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp) .byte 15,41,149,88,255,255,255 // movaps %xmm2,-0xa8(%ebp) .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp) .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,194,195,1 // cmpltps %xmm3,%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 15,94,211 // divps %xmm3,%xmm2 .byte 15,84,208 // andps %xmm0,%xmm2 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 .byte 15,88,241 // addps %xmm1,%xmm6 .byte 232,0,0,0,0 // call f30 <_sk_softlight_sse2+0x52> .byte 89 // pop %ecx .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,40,137,16,132,0,0 // movaps 0x8410(%ecx),%xmm1 .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp) .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,185,0,132,0,0 // movaps 0x8400(%ecx),%xmm7 .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp) .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,82,242 // rsqrtps %xmm2,%xmm6 .byte 15,83,206 // rcpps %xmm6,%xmm1 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 15,40,161,32,132,0,0 // movaps 0x8420(%ecx),%xmm4 .byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp) .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp) .byte 15,194,198,2 // cmpleps %xmm6,%xmm0 .byte 15,84,208 // andps %xmm0,%xmm2 .byte 15,85,193 // andnps %xmm1,%xmm0 .byte 15,86,194 // orps %xmm2,%xmm0 .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp) .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp) .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,194,211,2 // cmpleps %xmm3,%xmm2 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,84,250 // andps %xmm2,%xmm7 .byte 15,85,208 // andnps %xmm0,%xmm2 .byte 15,86,215 // orps %xmm7,%xmm2 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp) .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,94,101,184 // divps -0x48(%ebp),%xmm4 .byte 15,84,101,200 // andps -0x38(%ebp),%xmm4 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,89,219 // mulps %xmm3,%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,88,141,104,255,255,255 // addps -0x98(%ebp),%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7 .byte 15,92,252 // subps %xmm4,%xmm7 .byte 15,82,220 // rsqrtps %xmm4,%xmm3 .byte 15,83,235 // rcpps %xmm3,%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,89,101,152 // mulps -0x68(%ebp),%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,93,136 // movaps -0x78(%ebp),%xmm3 .byte 15,88,219 // addps %xmm3,%xmm3 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,194,69,184,2 // cmpleps -0x48(%ebp),%xmm0 .byte 15,84,224 // andps %xmm0,%xmm4 .byte 15,85,197 // andnps %xmm5,%xmm0 .byte 15,86,196 // orps %xmm4,%xmm0 .byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,40,77,136 // movaps -0x78(%ebp),%xmm1 .byte 15,89,141,120,255,255,255 // mulps -0x88(%ebp),%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,194,221,2 // cmpleps %xmm5,%xmm3 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,84,251 // andps %xmm3,%xmm7 .byte 15,85,216 // andnps %xmm0,%xmm3 .byte 15,86,223 // orps %xmm7,%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,94,252 // divps %xmm4,%xmm7 .byte 15,84,125,200 // andps -0x38(%ebp),%xmm7 .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 15,40,173,104,255,255,255 // movaps -0x98(%ebp),%xmm5 .byte 15,88,239 // addps %xmm7,%xmm5 .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,82,207 // rsqrtps %xmm7,%xmm1 .byte 15,83,201 // rcpps %xmm1,%xmm1 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp) .byte 15,88,255 // addps %xmm7,%xmm7 .byte 15,88,255 // addps %xmm7,%xmm7 .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,89,210 // mulps %xmm2,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,40,173,88,255,255,255 // movaps -0xa8(%ebp),%xmm5 .byte 15,88,237 // addps %xmm5,%xmm5 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp) .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,88,192 // addps %xmm0,%xmm0 .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7 .byte 15,194,199,2 // cmpleps %xmm7,%xmm0 .byte 15,84,200 // andps %xmm0,%xmm1 .byte 15,85,69,200 // andnps -0x38(%ebp),%xmm0 .byte 15,86,193 // orps %xmm1,%xmm0 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2 .byte 15,89,242 // mulps %xmm2,%xmm6 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1 .byte 15,89,141,120,255,255,255 // mulps -0x88(%ebp),%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,194,234,2 // cmpleps %xmm2,%xmm5 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2 .byte 15,84,213 // andps %xmm5,%xmm2 .byte 15,85,232 // andnps %xmm0,%xmm5 .byte 15,86,234 // orps %xmm2,%xmm5 .byte 15,88,233 // addps %xmm1,%xmm5 .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 129,196,200,0,0,0 // add $0xc8,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_hue_sse2 .globl _sk_hue_sse2 FUNCTION(_sk_hue_sse2) _sk_hue_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 129,236,184,0,0,0 // sub $0xb8,%esp .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1 .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0 .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp) .byte 15,40,88,48 // movaps 0x30(%eax),%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,95,211 // maxps %xmm3,%xmm2 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp) .byte 15,95,226 // maxps %xmm2,%xmm4 .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,200 // minps %xmm0,%xmm1 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp) .byte 232,0,0,0,0 // call 11f1 <_sk_hue_sse2+0x4f> .byte 89 // pop %ecx .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1 .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 15,40,169,159,129,0,0 // movaps 0x819f(%ecx),%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,41,181,104,255,255,255 // movaps %xmm6,-0x98(%ebp) .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,41,173,88,255,255,255 // movaps %xmm5,-0xa8(%ebp) .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp) .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,93,200 // minps %xmm0,%xmm1 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,93,249 // minps %xmm1,%xmm7 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,95,200 // maxps %xmm0,%xmm1 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,95,225 // maxps %xmm1,%xmm4 .byte 15,92,231 // subps %xmm7,%xmm4 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp) .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,153,111,129,0,0 // movaps 0x816f(%ecx),%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,40,153,127,129,0,0 // movaps 0x817f(%ecx),%xmm3 .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 .byte 15,40,137,159,129,0,0 // movaps 0x819f(%ecx),%xmm1 .byte 15,92,77,184 // subps -0x48(%ebp),%xmm1 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp) .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp) .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp) .byte 15,40,169,143,129,0,0 // movaps 0x818f(%ecx),%xmm5 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,94,212 // divps %xmm4,%xmm2 .byte 15,40,181,120,255,255,255 // movaps -0x88(%ebp),%xmm6 .byte 15,94,244 // divps %xmm4,%xmm6 .byte 15,94,196 // divps %xmm4,%xmm0 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,194,231,4 // cmpneqps %xmm7,%xmm4 .byte 15,84,212 // andps %xmm4,%xmm2 .byte 15,84,244 // andps %xmm4,%xmm6 .byte 15,84,224 // andps %xmm0,%xmm4 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,89,77,184 // mulps -0x48(%ebp),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 15,88,241 // addps %xmm1,%xmm6 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,93,193 // minps %xmm1,%xmm0 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,93,224 // minps %xmm0,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,95,193 // maxps %xmm1,%xmm0 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,95,248 // maxps %xmm0,%xmm7 .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,89,222 // mulps %xmm6,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,88,235 // addps %xmm3,%xmm5 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,194,196,2 // cmpleps %xmm4,%xmm0 .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,94,227 // divps %xmm3,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,85,220 // andnps %xmm4,%xmm3 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,84,224 // andps %xmm0,%xmm4 .byte 15,86,227 // orps %xmm3,%xmm4 .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,93,216 // addps -0x28(%ebp),%xmm3 .byte 15,92,218 // subps %xmm2,%xmm3 .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,194,215,1 // cmpltps %xmm7,%xmm2 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,85,220 // andnps %xmm4,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 15,84,226 // andps %xmm2,%xmm4 .byte 15,86,101,200 // orps -0x38(%ebp),%xmm4 .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp) .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,94,93,232 // divps -0x18(%ebp),%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,85,227 // andnps %xmm3,%xmm4 .byte 15,84,240 // andps %xmm0,%xmm6 .byte 15,86,244 // orps %xmm4,%xmm6 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,85,220 // andnps %xmm4,%xmm3 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 15,84,226 // andps %xmm2,%xmm4 .byte 15,86,227 // orps %xmm3,%xmm4 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,94,93,232 // divps -0x18(%ebp),%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,84,200 // andps %xmm0,%xmm1 .byte 15,85,195 // andnps %xmm3,%xmm0 .byte 15,86,193 // orps %xmm1,%xmm0 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,85,200 // andnps %xmm0,%xmm1 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,84,194 // andps %xmm2,%xmm0 .byte 15,86,193 // orps %xmm1,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2 .byte 15,95,209 // maxps %xmm1,%xmm2 .byte 15,95,225 // maxps %xmm1,%xmm4 .byte 15,95,193 // maxps %xmm1,%xmm0 .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3 .byte 15,88,93,152 // addps -0x68(%ebp),%xmm3 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1 .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2 .byte 15,88,149,88,255,255,255 // addps -0xa8(%ebp),%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 129,196,200,0,0,0 // add $0xc8,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_saturation_sse2 .globl _sk_saturation_sse2 FUNCTION(_sk_saturation_sse2) _sk_saturation_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 129,236,216,0,0,0 // sub $0xd8,%esp .byte 15,41,149,40,255,255,255 // movaps %xmm2,-0xd8(%ebp) .byte 15,41,141,56,255,255,255 // movaps %xmm1,-0xc8(%ebp) .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,112,16 // movaps 0x10(%eax),%xmm6 .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp) .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,95,226 // maxps %xmm2,%xmm4 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,95,236 // maxps %xmm4,%xmm5 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,93,226 // minps %xmm2,%xmm4 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,93,212 // minps %xmm4,%xmm2 .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0 .byte 15,92,234 // subps %xmm2,%xmm5 .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,40,120,48 // movaps 0x30(%eax),%xmm7 .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp) .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,93,207 // minps %xmm7,%xmm1 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,93,209 // minps %xmm1,%xmm2 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,95,207 // maxps %xmm7,%xmm1 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,95,225 // maxps %xmm1,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,92,218 // subps %xmm2,%xmm3 .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,40,64,64 // movaps 0x40(%eax),%xmm0 .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp) .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp) .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 232,0,0,0,0 // call 1545 <_sk_saturation_sse2+0xb0> .byte 89 // pop %ecx .byte 15,40,153,91,126,0,0 // movaps 0x7e5b(%ecx),%xmm3 .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp) .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,40,153,107,126,0,0 // movaps 0x7e6b(%ecx),%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,40,129,139,126,0,0 // movaps 0x7e8b(%ecx),%xmm0 .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp) .byte 15,92,69,216 // subps -0x28(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp) .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp) .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp) .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,129,123,126,0,0 // movaps 0x7e7b(%ecx),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5 .byte 15,94,236 // divps %xmm4,%xmm5 .byte 15,94,212 // divps %xmm4,%xmm2 .byte 15,94,252 // divps %xmm4,%xmm7 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,194,227,4 // cmpneqps %xmm3,%xmm4 .byte 15,84,236 // andps %xmm4,%xmm5 .byte 15,84,212 // andps %xmm4,%xmm2 .byte 15,84,231 // andps %xmm7,%xmm4 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,165,88,255,255,255 // movaps -0xa8(%ebp),%xmm4 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,89,125,232 // mulps -0x18(%ebp),%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,89,77,216 // mulps -0x28(%ebp),%xmm1 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,88,233 // addps %xmm1,%xmm5 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,93,217 // minps %xmm1,%xmm3 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,93,251 // minps %xmm3,%xmm7 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,95,217 // maxps %xmm1,%xmm3 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,95,243 // maxps %xmm3,%xmm6 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 15,88,220 // addps %xmm4,%xmm3 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,88,195 // addps %xmm3,%xmm0 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,194,223,2 // cmpleps %xmm7,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,94,250 // divps %xmm2,%xmm7 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,85,215 // andnps %xmm7,%xmm2 .byte 15,84,235 // andps %xmm3,%xmm5 .byte 15,86,234 // orps %xmm2,%xmm5 .byte 15,40,125,152 // movaps -0x68(%ebp),%xmm7 .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp) .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,194,214,1 // cmpltps %xmm6,%xmm2 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,85,229 // andnps %xmm5,%xmm4 .byte 15,92,232 // subps %xmm0,%xmm5 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,94,238 // divps %xmm6,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,84,234 // andps %xmm2,%xmm5 .byte 15,86,236 // orps %xmm4,%xmm5 .byte 15,41,109,168 // movaps %xmm5,-0x58(%ebp) .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,94,101,232 // divps -0x18(%ebp),%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,85,236 // andnps %xmm4,%xmm5 .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4 .byte 15,84,227 // andps %xmm3,%xmm4 .byte 15,86,229 // orps %xmm5,%xmm4 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,85,236 // andnps %xmm4,%xmm5 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,94,230 // divps %xmm6,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,84,226 // andps %xmm2,%xmm4 .byte 15,86,229 // orps %xmm5,%xmm4 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,94,101,232 // divps -0x18(%ebp),%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,84,203 // andps %xmm3,%xmm1 .byte 15,85,220 // andnps %xmm4,%xmm3 .byte 15,86,217 // orps %xmm1,%xmm3 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,85,203 // andnps %xmm3,%xmm1 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,89,223 // mulps %xmm7,%xmm3 .byte 15,94,222 // divps %xmm6,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,84,218 // andps %xmm2,%xmm3 .byte 15,86,217 // orps %xmm1,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1 .byte 15,95,200 // maxps %xmm0,%xmm1 .byte 15,95,232 // maxps %xmm0,%xmm5 .byte 15,95,216 // maxps %xmm0,%xmm3 .byte 15,40,165,104,255,255,255 // movaps -0x98(%ebp),%xmm4 .byte 15,92,101,152 // subps -0x68(%ebp),%xmm4 .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,69,184 // addps -0x48(%ebp),%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,40,141,56,255,255,255 // movaps -0xc8(%ebp),%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,89,165,40,255,255,255 // mulps -0xd8(%ebp),%xmm4 .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 129,196,232,0,0,0 // add $0xe8,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_color_sse2 .globl _sk_color_sse2 FUNCTION(_sk_color_sse2) _sk_color_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 129,236,200,0,0,0 // sub $0xc8,%esp .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp) .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp) .byte 232,0,0,0,0 // call 17a0 <_sk_color_sse2+0x2a> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2 .byte 15,40,72,32 // movaps 0x20(%eax),%xmm1 .byte 15,40,177,64,124,0,0 // movaps 0x7c40(%ecx),%xmm6 .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp) .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,153,80,124,0,0 // movaps 0x7c50(%ecx),%xmm3 .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 15,40,129,112,124,0,0 // movaps 0x7c70(%ecx),%xmm0 .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp) .byte 15,92,69,200 // subps -0x38(%ebp),%xmm0 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp) .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp) .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) .byte 15,40,137,96,124,0,0 // movaps 0x7c60(%ecx),%xmm1 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,89,109,216 // mulps -0x28(%ebp),%xmm5 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,125,184 // mulps -0x48(%ebp),%xmm7 .byte 15,88,253 // addps %xmm5,%xmm7 .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,41,109,168 // movaps %xmm5,-0x58(%ebp) .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp) .byte 15,88,235 // addps %xmm3,%xmm5 .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp) .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,89,109,152 // mulps -0x68(%ebp),%xmm5 .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,93,218 // minps %xmm2,%xmm3 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,93,227 // minps %xmm3,%xmm4 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,95,218 // maxps %xmm2,%xmm3 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,95,235 // maxps %xmm3,%xmm5 .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,194,252,2 // cmpleps %xmm4,%xmm7 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,94,227 // divps %xmm3,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 15,85,220 // andnps %xmm4,%xmm3 .byte 15,84,199 // andps %xmm7,%xmm0 .byte 15,86,195 // orps %xmm3,%xmm0 .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp) .byte 15,194,229,1 // cmpltps %xmm5,%xmm4 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,85,216 // andnps %xmm0,%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp) .byte 15,94,197 // divps %xmm5,%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,84,196 // andps %xmm4,%xmm0 .byte 15,86,69,232 // orps -0x18(%ebp),%xmm0 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp) .byte 15,40,109,232 // movaps -0x18(%ebp),%xmm5 .byte 15,85,235 // andnps %xmm3,%xmm5 .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp) .byte 15,84,247 // andps %xmm7,%xmm6 .byte 15,86,117,232 // orps -0x18(%ebp),%xmm6 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,85,222 // andnps %xmm6,%xmm3 .byte 15,92,241 // subps %xmm1,%xmm6 .byte 15,89,117,216 // mulps -0x28(%ebp),%xmm6 .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5 .byte 15,94,245 // divps %xmm5,%xmm6 .byte 15,88,241 // addps %xmm1,%xmm6 .byte 15,84,244 // andps %xmm4,%xmm6 .byte 15,86,243 // orps %xmm3,%xmm6 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,84,215 // andps %xmm7,%xmm2 .byte 15,85,251 // andnps %xmm3,%xmm7 .byte 15,86,250 // orps %xmm2,%xmm7 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 15,85,215 // andnps %xmm7,%xmm2 .byte 15,92,249 // subps %xmm1,%xmm7 .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7 .byte 15,94,253 // divps %xmm5,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 .byte 15,84,252 // andps %xmm4,%xmm7 .byte 15,86,250 // orps %xmm2,%xmm7 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,95,193 // maxps %xmm1,%xmm0 .byte 15,95,241 // maxps %xmm1,%xmm6 .byte 15,95,249 // maxps %xmm1,%xmm7 .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1 .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,88,141,56,255,255,255 // addps -0xc8(%ebp),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,88,141,88,255,255,255 // addps -0xa8(%ebp),%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,149,72,255,255,255 // addps -0xb8(%ebp),%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 129,196,216,0,0,0 // add $0xd8,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_luminosity_sse2 .globl _sk_luminosity_sse2 FUNCTION(_sk_luminosity_sse2) _sk_luminosity_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 129,236,184,0,0,0 // sub $0xb8,%esp .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 232,0,0,0,0 // call 1a03 <_sk_luminosity_sse2+0x11> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,161,29,122,0,0 // movaps 0x7a1d(%ecx),%xmm4 .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp) .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,40,161,45,122,0,0 // movaps 0x7a2d(%ecx),%xmm4 .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp) .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2 .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp) .byte 15,40,161,77,122,0,0 // movaps 0x7a4d(%ecx),%xmm4 .byte 15,40,252 // movaps %xmm4,%xmm7 .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp) .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp) .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 15,40,137,61,122,0,0 // movaps 0x7a3d(%ecx),%xmm1 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5 .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp) .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,40,112,32 // movaps 0x20(%eax),%xmm6 .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp) .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp) .byte 15,40,69,136 // movaps -0x78(%ebp),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp) .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp) .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp) .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,92,208 // subps %xmm0,%xmm2 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,93,194 // minps %xmm2,%xmm0 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,93,224 // minps %xmm0,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,95,194 // maxps %xmm2,%xmm0 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,95,248 // maxps %xmm0,%xmm7 .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp) .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,194,196,2 // cmpleps %xmm4,%xmm0 .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 15,92,252 // subps %xmm4,%xmm7 .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp) .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,85,252 // andnps %xmm4,%xmm7 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,86,239 // orps %xmm7,%xmm5 .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp) .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp) .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7 .byte 15,194,223,1 // cmpltps %xmm7,%xmm3 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,85,229 // andnps %xmm5,%xmm4 .byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp) .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp) .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,92,249 // subps %xmm1,%xmm7 .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp) .byte 15,94,239 // divps %xmm7,%xmm5 .byte 15,88,233 // addps %xmm1,%xmm5 .byte 15,84,235 // andps %xmm3,%xmm5 .byte 15,86,109,184 // orps -0x48(%ebp),%xmm5 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,85,252 // andnps %xmm4,%xmm7 .byte 15,84,240 // andps %xmm0,%xmm6 .byte 15,86,247 // orps %xmm7,%xmm6 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,85,230 // andnps %xmm6,%xmm4 .byte 15,92,241 // subps %xmm1,%xmm6 .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,94,117,200 // divps -0x38(%ebp),%xmm6 .byte 15,88,241 // addps %xmm1,%xmm6 .byte 15,84,243 // andps %xmm3,%xmm6 .byte 15,86,244 // orps %xmm4,%xmm6 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,84,208 // andps %xmm0,%xmm2 .byte 15,85,196 // andnps %xmm4,%xmm0 .byte 15,86,194 // orps %xmm2,%xmm0 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,85,208 // andnps %xmm0,%xmm2 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,94,69,200 // divps -0x38(%ebp),%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,84,195 // andps %xmm3,%xmm0 .byte 15,86,194 // orps %xmm2,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,95,233 // maxps %xmm1,%xmm5 .byte 15,95,241 // maxps %xmm1,%xmm6 .byte 15,95,193 // maxps %xmm1,%xmm0 .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3 .byte 15,88,93,136 // addps -0x78(%ebp),%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1 .byte 15,88,77,152 // addps -0x68(%ebp),%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2 .byte 15,88,149,104,255,255,255 // addps -0x98(%ebp),%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 129,196,200,0,0,0 // add $0xc8,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_srcover_rgba_8888_sse2 .globl _sk_srcover_rgba_8888_sse2 FUNCTION(_sk_srcover_rgba_8888_sse2) _sk_srcover_rgba_8888_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,44 // sub $0x2c,%esp .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp) .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 232,0,0,0,0 // call 1c6e <_sk_srcover_rgba_8888_sse2+0x17> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 193,226,2 // shl $0x2,%edx .byte 3,22 // add (%esi),%edx .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,49 // mov (%ecx),%esi .byte 15,133,224,0,0,0 // jne 1d70 <_sk_srcover_rgba_8888_sse2+0x119> .byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2 .byte 102,15,111,167,242,119,0,0 // movdqa 0x77f2(%edi),%xmm4 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 102,15,111,242 // movdqa %xmm2,%xmm6 .byte 102,15,114,214,8 // psrld $0x8,%xmm6 .byte 102,15,219,244 // pand %xmm4,%xmm6 .byte 102,15,111,250 // movdqa %xmm2,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,219,252 // pand %xmm4,%xmm7 .byte 15,91,229 // cvtdq2ps %xmm5,%xmm4 .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx) .byte 15,40,175,2,120,0,0 // movaps 0x7802(%edi),%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,40,143,18,120,0,0 // movaps 0x7812(%edi),%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx) .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,41,121,48 // movaps %xmm7,0x30(%ecx) .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,88,248 // addps %xmm0,%xmm7 .byte 102,15,114,210,24 // psrld $0x18,%xmm2 .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0 .byte 15,41,65,64 // movaps %xmm0,0x40(%ecx) .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,88,235 // addps %xmm3,%xmm5 .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0 .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1 .byte 102,15,114,241,8 // pslld $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,91,215 // cvtps2dq %xmm7,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0 .byte 102,15,114,240,24 // pslld $0x18,%xmm0 .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 102,15,235,193 // por %xmm1,%xmm0 .byte 133,219 // test %ebx,%ebx .byte 117,95 // jne 1dab <_sk_srcover_rgba_8888_sse2+0x154> .byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,60 // add $0x3c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 137,216 // mov %ebx,%eax .byte 136,69,243 // mov %al,-0xd(%ebp) .byte 128,101,243,3 // andb $0x3,-0xd(%ebp) .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp) .byte 116,80 // je 1dcf <_sk_srcover_rgba_8888_sse2+0x178> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp) .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 116,21 // je 1da1 <_sk_srcover_rgba_8888_sse2+0x14a> .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp) .byte 15,133,255,254,255,255 // jne 1c95 <_sk_srcover_rgba_8888_sse2+0x3e> .byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2 .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 .byte 102,15,18,20,178 // movlpd (%edx,%esi,4),%xmm2 .byte 233,234,254,255,255 // jmp 1c95 <_sk_srcover_rgba_8888_sse2+0x3e> .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,41 // je 1ddc <_sk_srcover_rgba_8888_sse2+0x185> .byte 128,251,2 // cmp $0x2,%bl .byte 116,16 // je 1dc8 <_sk_srcover_rgba_8888_sse2+0x171> .byte 128,251,3 // cmp $0x3,%bl .byte 117,148 // jne 1d51 <_sk_srcover_rgba_8888_sse2+0xfa> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4) .byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4) .byte 235,130 // jmp 1d51 <_sk_srcover_rgba_8888_sse2+0xfa> .byte 102,15,110,20,178 // movd (%edx,%esi,4),%xmm2 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 233,185,254,255,255 // jmp 1c95 <_sk_srcover_rgba_8888_sse2+0x3e> .byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4) .byte 233,107,255,255,255 // jmp 1d51 <_sk_srcover_rgba_8888_sse2+0xfa> HIDDEN _sk_clamp_0_sse2 .globl _sk_clamp_0_sse2 FUNCTION(_sk_clamp_0_sse2) _sk_clamp_0_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,95,196 // maxps %xmm4,%xmm0 .byte 15,95,204 // maxps %xmm4,%xmm1 .byte 15,95,212 // maxps %xmm4,%xmm2 .byte 15,95,220 // maxps %xmm4,%xmm3 .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clamp_1_sse2 .globl _sk_clamp_1_sse2 FUNCTION(_sk_clamp_1_sse2) _sk_clamp_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 1e1a <_sk_clamp_1_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,40,160,118,118,0,0 // movaps 0x7676(%eax),%xmm4 .byte 15,93,196 // minps %xmm4,%xmm0 .byte 15,93,204 // minps %xmm4,%xmm1 .byte 15,93,212 // minps %xmm4,%xmm2 .byte 15,93,220 // minps %xmm4,%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clamp_a_sse2 .globl _sk_clamp_a_sse2 FUNCTION(_sk_clamp_a_sse2) _sk_clamp_a_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 1e4d <_sk_clamp_a_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,93,152,83,118,0,0 // minps 0x7653(%eax),%xmm3 .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 15,93,211 // minps %xmm3,%xmm2 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clamp_a_dst_sse2 .globl _sk_clamp_a_dst_sse2 FUNCTION(_sk_clamp_a_dst_sse2) _sk_clamp_a_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 1e7d <_sk_clamp_a_dst_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,98,64 // movaps 0x40(%edx),%xmm4 .byte 15,93,160,51,118,0,0 // minps 0x7633(%eax),%xmm4 .byte 15,41,98,64 // movaps %xmm4,0x40(%edx) .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5 .byte 15,93,236 // minps %xmm4,%xmm5 .byte 15,41,106,16 // movaps %xmm5,0x10(%edx) .byte 15,40,106,32 // movaps 0x20(%edx),%xmm5 .byte 15,93,236 // minps %xmm4,%xmm5 .byte 15,41,106,32 // movaps %xmm5,0x20(%edx) .byte 15,40,106,48 // movaps 0x30(%edx),%xmm5 .byte 15,93,236 // minps %xmm4,%xmm5 .byte 15,41,106,48 // movaps %xmm5,0x30(%edx) .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 82 // push %edx .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_set_rgb_sse2 .globl _sk_set_rgb_sse2 FUNCTION(_sk_set_rgb_sse2) _sk_set_rgb_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_swap_rb_sse2 .globl _sk_swap_rb_sse2 FUNCTION(_sk_swap_rb_sse2) _sk_swap_rb_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_invert_sse2 .globl _sk_invert_sse2 FUNCTION(_sk_invert_sse2) _sk_invert_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 1f28 <_sk_invert_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,40,160,152,117,0,0 // movaps 0x7598(%eax),%xmm4 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,92,232 // subps %xmm0,%xmm5 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,92,241 // subps %xmm1,%xmm6 .byte 15,40,252 // movaps %xmm4,%xmm7 .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_move_src_dst_sse2 .globl _sk_move_src_dst_sse2 FUNCTION(_sk_move_src_dst_sse2) _sk_move_src_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx) .byte 15,41,73,32 // movaps %xmm1,0x20(%ecx) .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx) .byte 15,41,89,64 // movaps %xmm3,0x40(%ecx) .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_move_dst_src_sse2 .globl _sk_move_dst_src_sse2 FUNCTION(_sk_move_dst_src_sse2) _sk_move_dst_src_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0 .byte 15,40,73,32 // movaps 0x20(%ecx),%xmm1 .byte 15,40,81,48 // movaps 0x30(%ecx),%xmm2 .byte 15,40,89,64 // movaps 0x40(%ecx),%xmm3 .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_premul_sse2 .globl _sk_premul_sse2 FUNCTION(_sk_premul_sse2) _sk_premul_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_premul_dst_sse2 .globl _sk_premul_dst_sse2 FUNCTION(_sk_premul_dst_sse2) _sk_premul_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4 .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx) .byte 15,40,105,32 // movaps 0x20(%ecx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) .byte 15,89,97,48 // mulps 0x30(%ecx),%xmm4 .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx) .byte 141,80,4 // lea 0x4(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_unpremul_sse2 .globl _sk_unpremul_sse2 FUNCTION(_sk_unpremul_sse2) _sk_unpremul_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 2026 <_sk_unpremul_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,40,168,170,116,0,0 // movaps 0x74aa(%eax),%xmm5 .byte 15,94,235 // divps %xmm3,%xmm5 .byte 15,194,227,4 // cmpneqps %xmm3,%xmm4 .byte 15,84,229 // andps %xmm5,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_from_srgb_sse2 .globl _sk_from_srgb_sse2 FUNCTION(_sk_from_srgb_sse2) _sk_from_srgb_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,56 // sub $0x38,%esp .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 232,0,0,0,0 // call 2070 <_sk_from_srgb_sse2+0x18> .byte 88 // pop %eax .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,201 // mulps %xmm1,%xmm1 .byte 15,40,160,128,116,0,0 // movaps 0x7480(%eax),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,176,144,116,0,0 // movaps 0x7490(%eax),%xmm6 .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp) .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,176,112,116,0,0 // movaps 0x7470(%eax),%xmm6 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,40,184,160,116,0,0 // movaps 0x74a0(%eax),%xmm7 .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp) .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,40,184,176,116,0,0 // movaps 0x74b0(%eax),%xmm7 .byte 15,194,215,1 // cmpltps %xmm7,%xmm2 .byte 15,84,202 // andps %xmm2,%xmm1 .byte 15,85,208 // andnps %xmm0,%xmm2 .byte 15,86,209 // orps %xmm1,%xmm2 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1 .byte 15,194,223,1 // cmpltps %xmm7,%xmm3 .byte 15,84,195 // andps %xmm3,%xmm0 .byte 15,85,217 // andnps %xmm1,%xmm3 .byte 15,86,216 // orps %xmm0,%xmm3 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,101,216 // addps -0x28(%ebp),%xmm4 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,194,239,1 // cmpltps %xmm7,%xmm5 .byte 15,84,245 // andps %xmm5,%xmm6 .byte 15,85,236 // andnps %xmm4,%xmm5 .byte 15,86,238 // orps %xmm6,%xmm5 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,40,213 // movaps %xmm5,%xmm2 .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,72 // add $0x48,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_from_srgb_dst_sse2 .globl _sk_from_srgb_dst_sse2 FUNCTION(_sk_from_srgb_dst_sse2) _sk_from_srgb_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,72 // sub $0x48,%esp .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) .byte 232,0,0,0,0 // call 214b <_sk_from_srgb_dst_sse2+0x1b> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 .byte 15,40,161,245,115,0,0 // movaps 0x73f5(%ecx),%xmm4 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,40,177,5,116,0,0 // movaps 0x7405(%ecx),%xmm6 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,169,229,115,0,0 // movaps 0x73e5(%ecx),%xmm5 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,40,185,21,116,0,0 // movaps 0x7415(%ecx),%xmm7 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,40,153,37,116,0,0 // movaps 0x7425(%ecx),%xmm3 .byte 15,194,203,1 // cmpltps %xmm3,%xmm1 .byte 15,84,209 // andps %xmm1,%xmm2 .byte 15,85,200 // andnps %xmm0,%xmm1 .byte 15,86,202 // orps %xmm2,%xmm1 .byte 15,41,72,16 // movaps %xmm1,0x10(%eax) .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,89,201 // mulps %xmm1,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,194,195,1 // cmpltps %xmm3,%xmm0 .byte 15,84,200 // andps %xmm0,%xmm1 .byte 15,85,194 // andnps %xmm2,%xmm0 .byte 15,86,193 // orps %xmm1,%xmm0 .byte 15,41,64,32 // movaps %xmm0,0x20(%eax) .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,89,201 // mulps %xmm1,%xmm1 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,194,195,1 // cmpltps %xmm3,%xmm0 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,85,196 // andnps %xmm4,%xmm0 .byte 15,86,197 // orps %xmm5,%xmm0 .byte 15,41,64,48 // movaps %xmm0,0x30(%eax) .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1 .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,17 // call *(%ecx) .byte 131,196,88 // add $0x58,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_to_srgb_sse2 .globl _sk_to_srgb_sse2 FUNCTION(_sk_to_srgb_sse2) _sk_to_srgb_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,72 // sub $0x48,%esp .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 232,0,0,0,0 // call 2236 <_sk_to_srgb_sse2+0x18> .byte 88 // pop %eax .byte 15,82,218 // rsqrtps %xmm2,%xmm3 .byte 15,40,160,90,115,0,0 // movaps 0x735a(%eax),%xmm4 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,40,128,106,115,0,0 // movaps 0x736a(%eax),%xmm0 .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,40,128,122,115,0,0 // movaps 0x737a(%eax),%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,40,128,138,115,0,0 // movaps 0x738a(%eax),%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,83,195 // rcpps %xmm3,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,40,168,74,115,0,0 // movaps 0x734a(%eax),%xmm5 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,40,152,154,115,0,0 // movaps 0x739a(%eax),%xmm3 .byte 15,194,211,1 // cmpltps %xmm3,%xmm2 .byte 15,84,202 // andps %xmm2,%xmm1 .byte 15,85,208 // andnps %xmm0,%xmm2 .byte 15,86,209 // orps %xmm1,%xmm2 .byte 15,82,198 // rsqrtps %xmm6,%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1 .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0 .byte 15,83,192 // rcpps %xmm0,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,194,243,1 // cmpltps %xmm3,%xmm6 .byte 15,84,206 // andps %xmm6,%xmm1 .byte 15,85,240 // andnps %xmm0,%xmm6 .byte 15,86,241 // orps %xmm1,%xmm6 .byte 15,82,199 // rsqrtps %xmm7,%xmm0 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4 .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0 .byte 15,83,192 // rcpps %xmm0,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,194,251,1 // cmpltps %xmm3,%xmm7 .byte 15,84,239 // andps %xmm7,%xmm5 .byte 15,85,248 // andnps %xmm0,%xmm7 .byte 15,86,253 // orps %xmm5,%xmm7 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,88 // add $0x58,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_rgb_to_hsl_sse2 .globl _sk_rgb_to_hsl_sse2 FUNCTION(_sk_rgb_to_hsl_sse2) _sk_rgb_to_hsl_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,56 // sub $0x38,%esp .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 232,0,0,0,0 // call 232d <_sk_rgb_to_hsl_sse2+0x15> .byte 88 // pop %eax .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,95,207 // maxps %xmm7,%xmm1 .byte 15,95,202 // maxps %xmm2,%xmm1 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,93,223 // minps %xmm7,%xmm3 .byte 15,93,218 // minps %xmm2,%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 15,40,152,179,114,0,0 // movaps 0x72b3(%eax),%xmm3 .byte 15,94,216 // divps %xmm0,%xmm3 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 15,194,234,1 // cmpltps %xmm2,%xmm5 .byte 15,84,168,195,114,0,0 // andps 0x72c3(%eax),%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,194,196,0 // cmpeqps %xmm4,%xmm0 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,194,247,0 // cmpeqps %xmm7,%xmm6 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,92,231 // subps %xmm7,%xmm4 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,40,152,211,114,0,0 // movaps 0x72d3(%eax),%xmm3 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,88,160,227,114,0,0 // addps 0x72e3(%eax),%xmm4 .byte 15,84,214 // andps %xmm6,%xmm2 .byte 15,85,244 // andnps %xmm4,%xmm6 .byte 15,86,242 // orps %xmm2,%xmm6 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,85,198 // andnps %xmm6,%xmm0 .byte 15,86,197 // orps %xmm5,%xmm0 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2 .byte 15,194,226,4 // cmpneqps %xmm2,%xmm4 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,40,168,3,115,0,0 // movaps 0x7303(%eax),%xmm5 .byte 15,92,218 // subps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,194,234,1 // cmpltps %xmm2,%xmm5 .byte 15,84,221 // andps %xmm5,%xmm3 .byte 15,85,233 // andnps %xmm1,%xmm5 .byte 15,86,235 // orps %xmm3,%xmm5 .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1 .byte 15,94,205 // divps %xmm5,%xmm1 .byte 15,89,128,243,114,0,0 // mulps 0x72f3(%eax),%xmm0 .byte 15,84,196 // andps %xmm4,%xmm0 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,72 // add $0x48,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_hsl_to_rgb_sse2 .globl _sk_hsl_to_rgb_sse2 FUNCTION(_sk_hsl_to_rgb_sse2) _sk_hsl_to_rgb_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 129,236,200,0,0,0 // sub $0xc8,%esp .byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp) .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp) .byte 232,0,0,0,0 // call 2422 <_sk_hsl_to_rgb_sse2+0x19> .byte 88 // pop %eax .byte 15,40,160,30,114,0,0 // movaps 0x721e(%eax),%xmm4 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp) .byte 15,194,218,2 // cmpleps %xmm2,%xmm3 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,194,233,0 // cmpeqps %xmm1,%xmm5 .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp) .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,92,241 // subps %xmm1,%xmm6 .byte 15,84,243 // andps %xmm3,%xmm6 .byte 15,85,217 // andnps %xmm1,%xmm3 .byte 15,86,222 // orps %xmm6,%xmm3 .byte 15,40,168,46,114,0,0 // movaps 0x722e(%eax),%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,193,1 // cmpltps %xmm1,%xmm0 .byte 15,40,176,62,114,0,0 // movaps 0x723e(%eax),%xmm6 .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp) .byte 15,84,198 // andps %xmm6,%xmm0 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp) .byte 15,88,218 // addps %xmm2,%xmm3 .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,88,210 // addps %xmm2,%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,40,184,78,114,0,0 // movaps 0x724e(%eax),%xmm7 .byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp) .byte 15,194,253,2 // cmpleps %xmm5,%xmm7 .byte 15,92,218 // subps %xmm2,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,194,205,2 // cmpleps %xmm5,%xmm1 .byte 15,40,160,126,114,0,0 // movaps 0x727e(%eax),%xmm4 .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp) .byte 15,194,229,2 // cmpleps %xmm5,%xmm4 .byte 15,40,176,94,114,0,0 // movaps 0x725e(%eax),%xmm6 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 15,40,128,110,114,0,0 // movaps 0x726e(%eax),%xmm0 .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp) .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,84,223 // andps %xmm7,%xmm3 .byte 15,85,248 // andnps %xmm0,%xmm7 .byte 15,86,251 // orps %xmm3,%xmm7 .byte 15,84,249 // andps %xmm1,%xmm7 .byte 15,85,77,216 // andnps -0x28(%ebp),%xmm1 .byte 15,86,207 // orps %xmm7,%xmm1 .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 15,85,229 // andnps %xmm5,%xmm4 .byte 15,86,225 // orps %xmm1,%xmm4 .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0 .byte 15,85,196 // andnps %xmm4,%xmm0 .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp) .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 .byte 15,84,136,62,114,0,0 // andps 0x723e(%eax),%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,40,128,78,114,0,0 // movaps 0x724e(%eax),%xmm0 .byte 15,194,193,2 // cmpleps %xmm1,%xmm0 .byte 15,40,152,30,114,0,0 // movaps 0x721e(%eax),%xmm3 .byte 15,194,217,2 // cmpleps %xmm1,%xmm3 .byte 15,40,160,126,114,0,0 // movaps 0x727e(%eax),%xmm4 .byte 15,194,225,2 // cmpleps %xmm1,%xmm4 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,40,168,110,114,0,0 // movaps 0x726e(%eax),%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,84,248 // andps %xmm0,%xmm7 .byte 15,85,197 // andnps %xmm5,%xmm0 .byte 15,86,199 // orps %xmm7,%xmm0 .byte 15,84,195 // andps %xmm3,%xmm0 .byte 15,85,93,216 // andnps -0x28(%ebp),%xmm3 .byte 15,86,216 // orps %xmm0,%xmm3 .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,84,220 // andps %xmm4,%xmm3 .byte 15,85,225 // andnps %xmm1,%xmm4 .byte 15,86,227 // orps %xmm3,%xmm4 .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7 .byte 15,85,252 // andnps %xmm4,%xmm7 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 .byte 15,88,152,142,114,0,0 // addps 0x728e(%eax),%xmm3 .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 .byte 15,84,77,136 // andps -0x78(%ebp),%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,226 // addps %xmm2,%xmm4 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1 .byte 15,194,203,2 // cmpleps %xmm3,%xmm1 .byte 15,84,209 // andps %xmm1,%xmm2 .byte 15,85,204 // andnps %xmm4,%xmm1 .byte 15,86,202 // orps %xmm2,%xmm1 .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0 .byte 15,194,195,2 // cmpleps %xmm3,%xmm0 .byte 15,84,200 // andps %xmm0,%xmm1 .byte 15,85,69,216 // andnps -0x28(%ebp),%xmm0 .byte 15,86,193 // orps %xmm1,%xmm0 .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1 .byte 15,194,203,2 // cmpleps %xmm3,%xmm1 .byte 15,84,193 // andps %xmm1,%xmm0 .byte 15,85,206 // andnps %xmm6,%xmm1 .byte 15,86,200 // orps %xmm0,%xmm1 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3 .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1 .byte 15,84,217 // andps %xmm1,%xmm3 .byte 15,85,202 // andnps %xmm2,%xmm1 .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,86,195 // orps %xmm3,%xmm0 .byte 15,86,251 // orps %xmm3,%xmm7 .byte 15,86,217 // orps %xmm1,%xmm3 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 129,196,216,0,0,0 // add $0xd8,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_scale_1_float_sse2 .globl _sk_scale_1_float_sse2 FUNCTION(_sk_scale_1_float_sse2) _sk_scale_1_float_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,33 // movss (%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_scale_u8_sse2 .globl _sk_scale_u8_sse2 FUNCTION(_sk_scale_u8_sse2) _sk_scale_u8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 269c <_sk_scale_u8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,65 // jne 26f8 <_sk_scale_u8_sse2+0x6a> .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,219,162,36,112,0,0 // pand 0x7024(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,52,112,0,0 // mulps 0x7034(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,50 // je 2732 <_sk_scale_u8_sse2+0xa4> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 271c <_sk_scale_u8_sse2+0x8e> .byte 128,251,3 // cmp $0x3,%bl .byte 117,182 // jne 26c4 <_sk_scale_u8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi .byte 102,15,110,238 // movd %esi,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 235,146 // jmp 26c4 <_sk_scale_u8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 235,136 // jmp 26c4 <_sk_scale_u8_sse2+0x36> HIDDEN _sk_lerp_1_float_sse2 .globl _sk_lerp_1_float_sse2 FUNCTION(_sk_lerp_1_float_sse2) _sk_lerp_1_float_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,16,34 // movss (%edx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5 .byte 15,40,112,32 // movaps 0x20(%eax),%xmm6 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,40,104,48 // movaps 0x30(%eax),%xmm5 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,40,104,64 // movaps 0x40(%eax),%xmm5 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 141,81,8 // lea 0x8(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 80 // push %eax .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_lerp_u8_sse2 .globl _sk_lerp_u8_sse2 FUNCTION(_sk_lerp_u8_sse2) _sk_lerp_u8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 27a4 <_sk_lerp_u8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,102 // jne 2825 <_sk_lerp_u8_sse2+0x8f> .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,219,162,60,111,0,0 // pand 0x6f3c(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,76,111,0,0 // mulps 0x6f4c(%edx),%xmm4 .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,40,105,48 // movaps 0x30(%ecx),%xmm5 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,53 // je 2862 <_sk_lerp_u8_sse2+0xcc> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 2849 <_sk_lerp_u8_sse2+0xb3> .byte 128,251,3 // cmp $0x3,%bl .byte 117,145 // jne 27cc <_sk_lerp_u8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi .byte 102,15,110,238 // movd %esi,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 233,106,255,255,255 // jmp 27cc <_sk_lerp_u8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 233,93,255,255,255 // jmp 27cc <_sk_lerp_u8_sse2+0x36> HIDDEN _sk_lerp_565_sse2 .globl _sk_lerp_565_sse2 FUNCTION(_sk_lerp_565_sse2) _sk_lerp_565_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 287d <_sk_lerp_565_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 15,133,163,0,0,0 // jne 2941 <_sk_lerp_565_sse2+0xd2> .byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6 .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6 .byte 102,15,111,162,131,110,0,0 // movdqa 0x6e83(%edx),%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,147,110,0,0 // mulps 0x6e93(%edx),%xmm4 .byte 102,15,111,170,163,110,0,0 // movdqa 0x6ea3(%edx),%xmm5 .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,170,179,110,0,0 // mulps 0x6eb3(%edx),%xmm5 .byte 102,15,219,178,195,110,0,0 // pand 0x6ec3(%edx),%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,178,211,110,0,0 // mulps 0x6ed3(%edx),%xmm6 .byte 15,40,121,16 // movaps 0x10(%ecx),%xmm7 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,40,121,48 // movaps 0x30(%ecx),%xmm7 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,40,121,64 // movaps 0x40(%ecx),%xmm7 .byte 15,92,223 // subps %xmm7,%xmm3 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,89,222 // mulps %xmm6,%xmm3 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,88,239 // addps %xmm7,%xmm5 .byte 15,88,223 // addps %xmm7,%xmm3 .byte 15,95,235 // maxps %xmm3,%xmm5 .byte 15,95,229 // maxps %xmm5,%xmm4 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,50 // je 297b <_sk_lerp_565_sse2+0x10c> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 128,251,2 // cmp $0x2,%bl .byte 116,23 // je 2969 <_sk_lerp_565_sse2+0xfa> .byte 128,251,3 // cmp $0x3,%bl .byte 15,133,76,255,255,255 // jne 28a7 <_sk_lerp_565_sse2+0x38> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6 .byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 242,15,16,244 // movsd %xmm4,%xmm6 .byte 233,44,255,255,255 // jmp 28a7 <_sk_lerp_565_sse2+0x38> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,246 // movd %esi,%xmm6 .byte 233,31,255,255,255 // jmp 28a7 <_sk_lerp_565_sse2+0x38> HIDDEN _sk_load_tables_sse2 .globl _sk_load_tables_sse2 FUNCTION(_sk_load_tables_sse2) _sk_load_tables_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 2996 <_sk_load_tables_sse2+0xe> .byte 90 // pop %edx .byte 139,117,12 // mov 0xc(%ebp),%esi .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,57 // mov (%ecx),%edi .byte 139,65,8 // mov 0x8(%ecx),%eax .byte 133,192 // test %eax,%eax .byte 139,54 // mov (%esi),%esi .byte 139,30 // mov (%esi),%ebx .byte 15,133,19,1,0,0 // jne 2ac1 <_sk_load_tables_sse2+0x139> .byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3 .byte 102,15,111,146,202,109,0,0 // movdqa 0x6dca(%edx),%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,112,224,231 // pshufd $0xe7,%xmm0,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 139,126,4 // mov 0x4(%esi),%edi .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 243,15,16,4,135 // movss (%edi,%eax,4),%xmm0 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,12,135 // movss (%edi,%eax,4),%xmm1 .byte 139,70,8 // mov 0x8(%esi),%eax .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4 .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 .byte 102,15,126,247 // movd %xmm6,%edi .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6 .byte 102,15,126,231 // movd %xmm4,%edi .byte 243,15,16,36,184 // movss (%eax,%edi,4),%xmm4 .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7 .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1 .byte 102,15,126,255 // movd %xmm7,%edi .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7 .byte 15,20,197 // unpcklps %xmm5,%xmm0 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 139,70,12 // mov 0xc(%esi),%eax .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,114,213,16 // psrld $0x10,%xmm5 .byte 102,15,219,234 // pand %xmm2,%xmm5 .byte 102,15,112,213,229 // pshufd $0xe5,%xmm5,%xmm2 .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6 .byte 102,15,126,214 // movd %xmm2,%esi .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,112,237,78 // pshufd $0x4e,%xmm5,%xmm5 .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2 .byte 102,15,126,238 // movd %xmm5,%esi .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,254 // unpcklps %xmm6,%xmm7 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,154,218,109,0,0 // mulps 0x6dda(%edx),%xmm3 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 137,194 // mov %eax,%edx .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 36,3 // and $0x3,%al .byte 60,1 // cmp $0x1,%al .byte 116,37 // je 2aec <_sk_load_tables_sse2+0x164> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 60,2 // cmp $0x2,%al .byte 116,19 // je 2ae2 <_sk_load_tables_sse2+0x15a> .byte 60,3 // cmp $0x3,%al .byte 15,133,220,254,255,255 // jne 29b3 <_sk_load_tables_sse2+0x2b> .byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3 .byte 233,199,254,255,255 // jmp 29b3 <_sk_load_tables_sse2+0x2b> .byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3 .byte 233,189,254,255,255 // jmp 29b3 <_sk_load_tables_sse2+0x2b> HIDDEN _sk_load_tables_u16_be_sse2 .globl _sk_load_tables_u16_be_sse2 FUNCTION(_sk_load_tables_u16_be_sse2) _sk_load_tables_u16_be_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,44 // sub $0x2c,%esp .byte 232,0,0,0,0 // call 2b04 <_sk_load_tables_u16_be_sse2+0xe> .byte 90 // pop %edx .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,24 // mov (%eax),%ebx .byte 139,64,8 // mov 0x8(%eax),%eax .byte 193,227,2 // shl $0x2,%ebx .byte 133,192 // test %eax,%eax .byte 139,57 // mov (%ecx),%edi .byte 139,15 // mov (%edi),%ecx .byte 190,255,0,255,0 // mov $0xff00ff,%esi .byte 15,133,166,1,0,0 // jne 2cca <_sk_load_tables_u16_be_sse2+0x1d4> .byte 102,15,16,4,89 // movupd (%ecx,%ebx,2),%xmm0 .byte 243,15,111,76,89,16 // movdqu 0x10(%ecx,%ebx,2),%xmm1 .byte 102,15,40,216 // movapd %xmm0,%xmm3 .byte 102,15,97,217 // punpcklwd %xmm1,%xmm3 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,15,112,202,78 // pshufd $0x4e,%xmm2,%xmm1 .byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5 .byte 33,241 // and %esi,%ecx .byte 137,77,216 // mov %ecx,-0x28(%ebp) .byte 33,240 // and %esi,%eax .byte 137,69,220 // mov %eax,-0x24(%ebp) .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,97,194 // punpcklwd %xmm2,%xmm0 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2 .byte 102,15,112,240,231 // pshufd $0xe7,%xmm0,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 139,79,4 // mov 0x4(%edi),%ecx .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7 .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,15,16,60,129 // movss (%ecx,%eax,4),%xmm7 .byte 102,15,126,232 // movd %xmm5,%eax .byte 139,79,8 // mov 0x8(%edi),%ecx .byte 33,240 // and %esi,%eax .byte 137,69,228 // mov %eax,-0x1c(%ebp) .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1 .byte 33,240 // and %esi,%eax .byte 137,69,224 // mov %eax,-0x20(%ebp) .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5 .byte 102,15,97,236 // punpcklwd %xmm4,%xmm5 .byte 102,15,112,205,231 // pshufd $0xe7,%xmm5,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,36,153 // movss (%ecx,%ebx,4),%xmm4 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,52,153 // movss (%ecx,%ebx,4),%xmm6 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 102,15,126,235 // movd %xmm5,%ebx .byte 243,15,16,12,153 // movss (%ecx,%ebx,4),%xmm1 .byte 102,15,112,237,78 // pshufd $0x4e,%xmm5,%xmm5 .byte 102,15,126,235 // movd %xmm5,%ebx .byte 243,15,16,44,153 // movss (%ecx,%ebx,4),%xmm5 .byte 102,15,126,217 // movd %xmm3,%ecx .byte 139,127,12 // mov 0xc(%edi),%edi .byte 33,241 // and %esi,%ecx .byte 137,77,232 // mov %ecx,-0x18(%ebp) .byte 33,240 // and %esi,%eax .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 137,69,236 // mov %eax,-0x14(%ebp) .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4 .byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 243,15,16,20,135 // movss (%edi,%eax,4),%xmm2 .byte 102,15,126,240 // movd %xmm6,%eax .byte 243,15,16,52,135 // movss (%edi,%eax,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 102,15,112,219,78 // pshufd $0x4e,%xmm3,%xmm3 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,113,244,8 // psllw $0x8,%xmm4 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,235,220 // por %xmm4,%xmm3 .byte 102,15,126,93,208 // movd %xmm3,-0x30(%ebp) .byte 102,15,112,219,229 // pshufd $0xe5,%xmm3,%xmm3 .byte 102,15,126,93,212 // movd %xmm3,-0x2c(%ebp) .byte 243,15,126,93,208 // movq -0x30(%ebp),%xmm3 .byte 102,15,97,223 // punpcklwd %xmm7,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,154,124,108,0,0 // mulps 0x6c7c(%edx),%xmm3 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 137,193 // mov %eax,%ecx .byte 141,65,8 // lea 0x8(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,60 // add $0x3c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 242,15,16,4,89 // movsd (%ecx,%ebx,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,248,1 // cmp $0x1,%eax .byte 15,132,83,254,255,255 // je 2b2f <_sk_load_tables_u16_be_sse2+0x39> .byte 102,15,22,68,89,8 // movhpd 0x8(%ecx,%ebx,2),%xmm0 .byte 131,248,3 // cmp $0x3,%eax .byte 15,130,68,254,255,255 // jb 2b2f <_sk_load_tables_u16_be_sse2+0x39> .byte 243,15,126,76,89,16 // movq 0x10(%ecx,%ebx,2),%xmm1 .byte 233,57,254,255,255 // jmp 2b2f <_sk_load_tables_u16_be_sse2+0x39> HIDDEN _sk_load_tables_rgb_u16_be_sse2 .globl _sk_load_tables_rgb_u16_be_sse2 FUNCTION(_sk_load_tables_rgb_u16_be_sse2) _sk_load_tables_rgb_u16_be_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,28 // sub $0x1c,%esp .byte 232,0,0,0,0 // call 2d04 <_sk_load_tables_rgb_u16_be_sse2+0xe> .byte 88 // pop %eax .byte 137,69,240 // mov %eax,-0x10(%ebp) .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 139,74,8 // mov 0x8(%edx),%ecx .byte 107,26,3 // imul $0x3,(%edx),%ebx .byte 133,201 // test %ecx,%ecx .byte 139,56 // mov (%eax),%edi .byte 139,7 // mov (%edi),%eax .byte 190,255,0,255,0 // mov $0xff00ff,%esi .byte 15,133,141,1,0,0 // jne 2eb2 <_sk_load_tables_rgb_u16_be_sse2+0x1bc> .byte 243,15,111,12,88 // movdqu (%eax,%ebx,2),%xmm1 .byte 243,15,111,92,88,8 // movdqu 0x8(%eax,%ebx,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,115,216,6 // psrldq $0x6,%xmm0 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,115,218,6 // psrldq $0x6,%xmm2 .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1 .byte 102,15,97,194 // punpcklwd %xmm2,%xmm0 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4 .byte 102,15,105,200 // punpckhwd %xmm0,%xmm1 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 33,241 // and %esi,%ecx .byte 137,77,216 // mov %ecx,-0x28(%ebp) .byte 33,240 // and %esi,%eax .byte 137,69,220 // mov %eax,-0x24(%ebp) .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,97,194 // punpcklwd %xmm2,%xmm0 .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3 .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 139,79,4 // mov 0x4(%edi),%ecx .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 .byte 243,15,16,28,129 // movss (%ecx,%eax,4),%xmm3 .byte 102,15,126,232 // movd %xmm5,%eax .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4 .byte 139,79,8 // mov 0x8(%edi),%ecx .byte 33,240 // and %esi,%eax .byte 137,69,224 // mov %eax,-0x20(%ebp) .byte 102,15,126,224 // movd %xmm4,%eax .byte 33,243 // and %esi,%ebx .byte 137,93,228 // mov %ebx,-0x1c(%ebp) .byte 243,15,126,101,224 // movq -0x20(%ebp),%xmm4 .byte 102,15,97,231 // punpcklwd %xmm7,%xmm4 .byte 102,15,112,252,231 // pshufd $0xe7,%xmm4,%xmm7 .byte 102,15,126,251 // movd %xmm7,%ebx .byte 243,15,16,60,153 // movss (%ecx,%ebx,4),%xmm7 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 102,15,112,204,229 // pshufd $0xe5,%xmm4,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 102,15,126,226 // movd %xmm4,%edx .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 102,15,112,228,78 // pshufd $0x4e,%xmm4,%xmm4 .byte 102,15,126,226 // movd %xmm4,%edx .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 .byte 139,79,12 // mov 0xc(%edi),%ecx .byte 33,243 // and %esi,%ebx .byte 137,93,232 // mov %ebx,-0x18(%ebp) .byte 33,240 // and %esi,%eax .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 137,69,236 // mov %eax,-0x14(%ebp) .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 102,15,97,213 // punpcklwd %xmm5,%xmm2 .byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5 .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 102,15,126,232 // movd %xmm5,%eax .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7 .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,15,16,60,129 // movss (%ecx,%eax,4),%xmm7 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 137,193 // mov %eax,%ecx .byte 141,65,8 // lea 0x8(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 139,85,240 // mov -0x10(%ebp),%edx .byte 15,40,162,140,106,0,0 // movaps 0x6a8c(%edx),%xmm4 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,44 // add $0x2c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 102,15,110,12,88 // movd (%eax,%ebx,2),%xmm1 .byte 102,15,196,76,88,4,2 // pinsrw $0x2,0x4(%eax,%ebx,2),%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 131,249,1 // cmp $0x1,%ecx .byte 117,13 // jne 2ed4 <_sk_load_tables_rgb_u16_be_sse2+0x1de> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 233,115,254,255,255 // jmp 2d47 <_sk_load_tables_rgb_u16_be_sse2+0x51> .byte 102,15,110,68,88,6 // movd 0x6(%eax,%ebx,2),%xmm0 .byte 102,15,196,68,88,10,2 // pinsrw $0x2,0xa(%eax,%ebx,2),%xmm0 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 131,249,3 // cmp $0x3,%ecx .byte 114,18 // jb 2efc <_sk_load_tables_rgb_u16_be_sse2+0x206> .byte 102,15,110,92,88,12 // movd 0xc(%eax,%ebx,2),%xmm3 .byte 102,15,196,92,88,16,2 // pinsrw $0x2,0x10(%eax,%ebx,2),%xmm3 .byte 233,75,254,255,255 // jmp 2d47 <_sk_load_tables_rgb_u16_be_sse2+0x51> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 233,66,254,255,255 // jmp 2d47 <_sk_load_tables_rgb_u16_be_sse2+0x51> HIDDEN _sk_byte_tables_sse2 .globl _sk_byte_tables_sse2 FUNCTION(_sk_byte_tables_sse2) _sk_byte_tables_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 2f13 <_sk_byte_tables_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 15,40,162,141,104,0,0 // movaps 0x688d(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 .byte 139,57 // mov (%ecx),%edi .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi .byte 102,15,126,235 // movd %xmm5,%ebx .byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 9,243 // or %esi,%ebx .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5 .byte 102,15,126,198 // movd %xmm0,%esi .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi .byte 102,15,126,232 // movd %xmm5,%eax .byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,240 // or %esi,%eax .byte 102,15,196,192,0 // pinsrw $0x0,%eax,%xmm0 .byte 139,65,4 // mov 0x4(%ecx),%eax .byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0 .byte 15,40,170,157,104,0,0 // movaps 0x689d(%edx),%xmm5 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi .byte 193,230,8 // shl $0x8,%esi .byte 9,214 // or %edx,%esi .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1 .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx .byte 102,15,126,207 // movd %xmm1,%edi .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,208 // or %edx,%eax .byte 102,15,196,200,0 // pinsrw $0x0,%eax,%xmm1 .byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1 .byte 139,65,8 // mov 0x8(%ecx),%eax .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi .byte 193,230,8 // shl $0x8,%esi .byte 9,214 // or %edx,%esi .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2 .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx .byte 102,15,126,215 // movd %xmm2,%edi .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,208 // or %edx,%eax .byte 102,15,196,208,0 // pinsrw $0x0,%eax,%xmm2 .byte 102,15,196,214,1 // pinsrw $0x1,%esi,%xmm2 .byte 139,65,12 // mov 0xc(%ecx),%eax .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 .byte 102,15,126,217 // movd %xmm3,%ecx .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 .byte 102,15,126,222 // movd %xmm3,%esi .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi .byte 193,230,8 // shl $0x8,%esi .byte 9,214 // or %edx,%esi .byte 102,15,126,226 // movd %xmm4,%edx .byte 15,182,12,8 // movzbl (%eax,%ecx,1),%ecx .byte 15,182,4,16 // movzbl (%eax,%edx,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,200 // or %ecx,%eax .byte 102,15,196,216,0 // pinsrw $0x0,%eax,%xmm3 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0 .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1 .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 102,15,196,222,1 // pinsrw $0x1,%esi,%xmm3 .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3 .byte 102,15,97,220 // punpcklwd %xmm4,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,65,8 // lea 0x8(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_byte_tables_rgb_sse2 .globl _sk_byte_tables_rgb_sse2 FUNCTION(_sk_byte_tables_rgb_sse2) _sk_byte_tables_rgb_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,81,12 // mov 0xc(%ecx),%edx .byte 74 // dec %edx .byte 102,15,110,226 // movd %edx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 .byte 102,15,126,234 // movd %xmm5,%edx .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 139,57 // mov (%ecx),%edi .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi .byte 193,230,8 // shl $0x8,%esi .byte 9,214 // or %edx,%esi .byte 102,15,126,194 // movd %xmm0,%edx .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0 .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx .byte 102,15,126,195 // movd %xmm0,%ebx .byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi .byte 193,231,8 // shl $0x8,%edi .byte 9,215 // or %edx,%edi .byte 232,0,0,0,0 // call 3113 <_sk_byte_tables_rgb_sse2+0x65> .byte 90 // pop %edx .byte 102,15,196,199,0 // pinsrw $0x0,%edi,%xmm0 .byte 139,121,4 // mov 0x4(%ecx),%edi .byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0 .byte 15,40,170,173,102,0,0 // movaps 0x66ad(%edx),%xmm5 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi .byte 193,230,8 // shl $0x8,%esi .byte 9,214 // or %edx,%esi .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1 .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx .byte 102,15,126,203 // movd %xmm1,%ebx .byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi .byte 193,231,8 // shl $0x8,%edi .byte 9,215 // or %edx,%edi .byte 102,15,196,207,0 // pinsrw $0x0,%edi,%xmm1 .byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1 .byte 139,73,8 // mov 0x8(%ecx),%ecx .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4 .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 15,182,52,49 // movzbl (%ecx,%esi,1),%esi .byte 15,182,60,57 // movzbl (%ecx,%edi,1),%edi .byte 193,231,8 // shl $0x8,%edi .byte 9,247 // or %esi,%edi .byte 102,15,126,230 // movd %xmm4,%esi .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx .byte 15,182,12,49 // movzbl (%ecx,%esi,1),%ecx .byte 193,225,8 // shl $0x8,%ecx .byte 9,209 // or %edx,%ecx .byte 102,15,196,209,0 // pinsrw $0x0,%ecx,%xmm2 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0 .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1 .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2 .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_table_r_sse2 .globl _sk_table_r_sse2 FUNCTION(_sk_table_r_sse2) _sk_table_r_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 139,73,4 // mov 0x4(%ecx),%ecx .byte 73 // dec %ecx .byte 102,15,110,225 // movd %ecx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0 .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4 .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 .byte 102,15,126,233 // movd %xmm5,%ecx .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 .byte 102,15,126,225 // movd %xmm4,%ecx .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6 .byte 243,15,16,4,138 // movss (%edx,%ecx,4),%xmm0 .byte 102,15,126,241 // movd %xmm6,%ecx .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_table_g_sse2 .globl _sk_table_g_sse2 FUNCTION(_sk_table_g_sse2) _sk_table_g_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 139,73,4 // mov 0x4(%ecx),%ecx .byte 73 // dec %ecx .byte 102,15,110,225 // movd %ecx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 102,15,91,204 // cvtps2dq %xmm4,%xmm1 .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4 .byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5 .byte 102,15,126,233 // movd %xmm5,%ecx .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 .byte 102,15,126,225 // movd %xmm4,%ecx .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 243,15,16,12,138 // movss (%edx,%ecx,4),%xmm1 .byte 102,15,126,241 // movd %xmm6,%ecx .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_table_b_sse2 .globl _sk_table_b_sse2 FUNCTION(_sk_table_b_sse2) _sk_table_b_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 139,73,4 // mov 0x4(%ecx),%ecx .byte 73 // dec %ecx .byte 102,15,110,225 // movd %ecx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 102,15,91,212 // cvtps2dq %xmm4,%xmm2 .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4 .byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5 .byte 102,15,126,233 // movd %xmm5,%ecx .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 .byte 102,15,126,225 // movd %xmm4,%ecx .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 243,15,16,20,138 // movss (%edx,%ecx,4),%xmm2 .byte 102,15,126,241 // movd %xmm6,%ecx .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_table_a_sse2 .globl _sk_table_a_sse2 FUNCTION(_sk_table_a_sse2) _sk_table_a_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 139,73,4 // mov 0x4(%ecx),%ecx .byte 73 // dec %ecx .byte 102,15,110,225 // movd %ecx,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 102,15,91,220 // cvtps2dq %xmm4,%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5 .byte 102,15,126,233 // movd %xmm5,%ecx .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 .byte 102,15,126,225 // movd %xmm4,%ecx .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 .byte 102,15,126,217 // movd %xmm3,%ecx .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6 .byte 243,15,16,28,138 // movss (%edx,%ecx,4),%xmm3 .byte 102,15,126,241 // movd %xmm6,%ecx .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_parametric_r_sse2 .globl _sk_parametric_r_sse2 FUNCTION(_sk_parametric_r_sse2) _sk_parametric_r_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 232,0,0,0,0 // call 33e2 <_sk_parametric_r_sse2+0x18> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,194,205,2 // cmpleps %xmm5,%xmm1 .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 .byte 15,89,170,238,99,0,0 // mulps 0x63ee(%edx),%xmm5 .byte 15,84,178,254,99,0,0 // andps 0x63fe(%edx),%xmm6 .byte 15,86,178,14,100,0,0 // orps 0x640e(%edx),%xmm6 .byte 15,88,170,30,100,0,0 // addps 0x641e(%edx),%xmm5 .byte 15,40,186,46,100,0,0 // movaps 0x642e(%edx),%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,88,178,62,100,0,0 // addps 0x643e(%edx),%xmm6 .byte 15,40,186,78,100,0,0 // movaps 0x644e(%edx),%xmm7 .byte 15,94,254 // divps %xmm6,%xmm7 .byte 243,15,16,49 // movss (%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,199,1 // cmpltps %xmm7,%xmm0 .byte 15,40,178,94,100,0,0 // movaps 0x645e(%edx),%xmm6 .byte 15,84,198 // andps %xmm6,%xmm0 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,88,170,110,100,0,0 // addps 0x646e(%edx),%xmm5 .byte 15,40,186,126,100,0,0 // movaps 0x647e(%edx),%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,186,142,100,0,0 // movaps 0x648e(%edx),%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,130,158,100,0,0 // movaps 0x649e(%edx),%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,89,130,174,100,0,0 // mulps 0x64ae(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,84,225 // andps %xmm1,%xmm4 .byte 15,85,205 // andnps %xmm5,%xmm1 .byte 15,86,204 // orps %xmm4,%xmm1 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,200 // maxps %xmm0,%xmm1 .byte 15,93,206 // minps %xmm6,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_parametric_g_sse2 .globl _sk_parametric_g_sse2 FUNCTION(_sk_parametric_g_sse2) _sk_parametric_g_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 232,0,0,0,0 // call 3519 <_sk_parametric_g_sse2+0x15> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,194,205,2 // cmpleps %xmm5,%xmm1 .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 .byte 15,89,170,135,99,0,0 // mulps 0x6387(%edx),%xmm5 .byte 15,84,178,151,99,0,0 // andps 0x6397(%edx),%xmm6 .byte 15,86,178,167,99,0,0 // orps 0x63a7(%edx),%xmm6 .byte 15,88,170,183,99,0,0 // addps 0x63b7(%edx),%xmm5 .byte 15,40,186,199,99,0,0 // movaps 0x63c7(%edx),%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,88,178,215,99,0,0 // addps 0x63d7(%edx),%xmm6 .byte 15,40,186,231,99,0,0 // movaps 0x63e7(%edx),%xmm7 .byte 15,94,254 // divps %xmm6,%xmm7 .byte 243,15,16,49 // movss (%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,199,1 // cmpltps %xmm7,%xmm0 .byte 15,40,178,247,99,0,0 // movaps 0x63f7(%edx),%xmm6 .byte 15,84,198 // andps %xmm6,%xmm0 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,88,170,7,100,0,0 // addps 0x6407(%edx),%xmm5 .byte 15,40,186,23,100,0,0 // movaps 0x6417(%edx),%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,186,39,100,0,0 // movaps 0x6427(%edx),%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,130,55,100,0,0 // movaps 0x6437(%edx),%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,89,130,71,100,0,0 // mulps 0x6447(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,84,225 // andps %xmm1,%xmm4 .byte 15,85,205 // andnps %xmm5,%xmm1 .byte 15,86,204 // orps %xmm4,%xmm1 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,200 // maxps %xmm0,%xmm1 .byte 15,93,206 // minps %xmm6,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_parametric_b_sse2 .globl _sk_parametric_b_sse2 FUNCTION(_sk_parametric_b_sse2) _sk_parametric_b_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 232,0,0,0,0 // call 364d <_sk_parametric_b_sse2+0x15> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,242 // mulps %xmm2,%xmm6 .byte 15,194,213,2 // cmpleps %xmm5,%xmm2 .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 .byte 15,89,170,35,99,0,0 // mulps 0x6323(%edx),%xmm5 .byte 15,84,178,51,99,0,0 // andps 0x6333(%edx),%xmm6 .byte 15,86,178,67,99,0,0 // orps 0x6343(%edx),%xmm6 .byte 15,88,170,83,99,0,0 // addps 0x6353(%edx),%xmm5 .byte 15,40,186,99,99,0,0 // movaps 0x6363(%edx),%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,88,178,115,99,0,0 // addps 0x6373(%edx),%xmm6 .byte 15,40,186,131,99,0,0 // movaps 0x6383(%edx),%xmm7 .byte 15,94,254 // divps %xmm6,%xmm7 .byte 243,15,16,49 // movss (%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,199,1 // cmpltps %xmm7,%xmm0 .byte 15,40,178,147,99,0,0 // movaps 0x6393(%edx),%xmm6 .byte 15,84,198 // andps %xmm6,%xmm0 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,88,170,163,99,0,0 // addps 0x63a3(%edx),%xmm5 .byte 15,40,186,179,99,0,0 // movaps 0x63b3(%edx),%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,186,195,99,0,0 // movaps 0x63c3(%edx),%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,130,211,99,0,0 // movaps 0x63d3(%edx),%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,89,130,227,99,0,0 // mulps 0x63e3(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,84,226 // andps %xmm2,%xmm4 .byte 15,85,213 // andnps %xmm5,%xmm2 .byte 15,86,212 // orps %xmm4,%xmm2 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,208 // maxps %xmm0,%xmm2 .byte 15,93,214 // minps %xmm6,%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_parametric_a_sse2 .globl _sk_parametric_a_sse2 FUNCTION(_sk_parametric_a_sse2) _sk_parametric_a_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 232,0,0,0,0 // call 3781 <_sk_parametric_a_sse2+0x15> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,194,221,2 // cmpleps %xmm5,%xmm3 .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 .byte 15,89,170,191,98,0,0 // mulps 0x62bf(%edx),%xmm5 .byte 15,84,178,207,98,0,0 // andps 0x62cf(%edx),%xmm6 .byte 15,86,178,223,98,0,0 // orps 0x62df(%edx),%xmm6 .byte 15,88,170,239,98,0,0 // addps 0x62ef(%edx),%xmm5 .byte 15,40,186,255,98,0,0 // movaps 0x62ff(%edx),%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,88,178,15,99,0,0 // addps 0x630f(%edx),%xmm6 .byte 15,40,186,31,99,0,0 // movaps 0x631f(%edx),%xmm7 .byte 15,94,254 // divps %xmm6,%xmm7 .byte 243,15,16,49 // movss (%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,199,1 // cmpltps %xmm7,%xmm0 .byte 15,40,178,47,99,0,0 // movaps 0x632f(%edx),%xmm6 .byte 15,84,198 // andps %xmm6,%xmm0 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,88,170,63,99,0,0 // addps 0x633f(%edx),%xmm5 .byte 15,40,186,79,99,0,0 // movaps 0x634f(%edx),%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,186,95,99,0,0 // movaps 0x635f(%edx),%xmm7 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,40,130,111,99,0,0 // movaps 0x636f(%edx),%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,89,130,127,99,0,0 // mulps 0x637f(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,84,227 // andps %xmm3,%xmm4 .byte 15,85,221 // andnps %xmm5,%xmm3 .byte 15,86,220 // orps %xmm4,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,216 // maxps %xmm0,%xmm3 .byte 15,93,222 // minps %xmm6,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_gamma_sse2 .globl _sk_gamma_sse2 FUNCTION(_sk_gamma_sse2) _sk_gamma_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,40 // sub $0x28,%esp .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 232,0,0,0,0 // call 38b2 <_sk_gamma_sse2+0x12> .byte 88 // pop %eax .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0 .byte 15,89,128,94,98,0,0 // mulps 0x625e(%eax),%xmm0 .byte 15,84,152,110,98,0,0 // andps 0x626e(%eax),%xmm3 .byte 15,86,152,126,98,0,0 // orps 0x627e(%eax),%xmm3 .byte 15,88,128,142,98,0,0 // addps 0x628e(%eax),%xmm0 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,89,160,158,98,0,0 // mulps 0x629e(%eax),%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,88,152,174,98,0,0 // addps 0x62ae(%eax),%xmm3 .byte 15,40,160,190,98,0,0 // movaps 0x62be(%eax),%xmm4 .byte 15,94,227 // divps %xmm3,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,16,58 // movss (%edx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp) .byte 243,15,91,216 // cvttps2dq %xmm0,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,194,227,1 // cmpltps %xmm3,%xmm4 .byte 15,84,160,206,98,0,0 // andps 0x62ce(%eax),%xmm4 .byte 15,92,220 // subps %xmm4,%xmm3 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,88,128,222,98,0,0 // addps 0x62de(%eax),%xmm0 .byte 15,40,176,254,98,0,0 // movaps 0x62fe(%eax),%xmm6 .byte 15,92,244 // subps %xmm4,%xmm6 .byte 15,40,168,238,98,0,0 // movaps 0x62ee(%eax),%xmm5 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,40,152,14,99,0,0 // movaps 0x630e(%eax),%xmm3 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,94,230 // divps %xmm6,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 .byte 15,89,128,94,98,0,0 // mulps 0x625e(%eax),%xmm0 .byte 15,84,136,110,98,0,0 // andps 0x626e(%eax),%xmm1 .byte 15,86,136,126,98,0,0 // orps 0x627e(%eax),%xmm1 .byte 15,88,128,142,98,0,0 // addps 0x628e(%eax),%xmm0 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,176,158,98,0,0 // mulps 0x629e(%eax),%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,88,136,174,98,0,0 // addps 0x62ae(%eax),%xmm1 .byte 15,40,176,190,98,0,0 // movaps 0x62be(%eax),%xmm6 .byte 15,94,241 // divps %xmm1,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,194,241,1 // cmpltps %xmm1,%xmm6 .byte 15,84,176,206,98,0,0 // andps 0x62ce(%eax),%xmm6 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,92,241 // subps %xmm1,%xmm6 .byte 15,88,128,222,98,0,0 // addps 0x62de(%eax),%xmm0 .byte 15,40,184,254,98,0,0 // movaps 0x62fe(%eax),%xmm7 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,94,207 // divps %xmm7,%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0 .byte 15,89,128,94,98,0,0 // mulps 0x625e(%eax),%xmm0 .byte 15,84,144,110,98,0,0 // andps 0x626e(%eax),%xmm2 .byte 15,86,144,126,98,0,0 // orps 0x627e(%eax),%xmm2 .byte 15,88,128,142,98,0,0 // addps 0x628e(%eax),%xmm0 .byte 15,40,176,158,98,0,0 // movaps 0x629e(%eax),%xmm6 .byte 15,89,242 // mulps %xmm2,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,88,144,174,98,0,0 // addps 0x62ae(%eax),%xmm2 .byte 15,40,176,190,98,0,0 // movaps 0x62be(%eax),%xmm6 .byte 15,94,242 // divps %xmm2,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0 .byte 243,15,91,208 // cvttps2dq %xmm0,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,194,242,1 // cmpltps %xmm2,%xmm6 .byte 15,84,176,206,98,0,0 // andps 0x62ce(%eax),%xmm6 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,88,128,222,98,0,0 // addps 0x62de(%eax),%xmm0 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,40,144,254,98,0,0 // movaps 0x62fe(%eax),%xmm2 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 15,94,218 // divps %xmm2,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,40,128,30,99,0,0 // movaps 0x631e(%eax),%xmm0 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0 .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 102,15,91,211 // cvtps2dq %xmm3,%xmm2 .byte 141,65,8 // lea 0x8(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,56 // add $0x38,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_lab_to_xyz_sse2 .globl _sk_lab_to_xyz_sse2 FUNCTION(_sk_lab_to_xyz_sse2) _sk_lab_to_xyz_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 232,0,0,0,0 // call 3a9a <_sk_lab_to_xyz_sse2+0x15> .byte 88 // pop %eax .byte 15,89,144,70,97,0,0 // mulps 0x6146(%eax),%xmm2 .byte 15,40,160,86,97,0,0 // movaps 0x6156(%eax),%xmm4 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,40,168,102,97,0,0 // movaps 0x6166(%eax),%xmm5 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,88,144,118,97,0,0 // addps 0x6176(%eax),%xmm2 .byte 15,89,144,134,97,0,0 // mulps 0x6186(%eax),%xmm2 .byte 15,89,136,150,97,0,0 // mulps 0x6196(%eax),%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,89,152,166,97,0,0 // mulps 0x61a6(%eax),%xmm3 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,152,182,97,0,0 // movaps 0x61b6(%eax),%xmm3 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,194,224,1 // cmpltps %xmm0,%xmm4 .byte 15,40,176,198,97,0,0 // movaps 0x61c6(%eax),%xmm6 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,40,184,214,97,0,0 // movaps 0x61d6(%eax),%xmm7 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,84,196 // andps %xmm4,%xmm0 .byte 15,85,225 // andnps %xmm1,%xmm4 .byte 15,86,224 // orps %xmm0,%xmm4 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,84,193 // andps %xmm1,%xmm0 .byte 15,85,202 // andnps %xmm2,%xmm1 .byte 15,86,200 // orps %xmm0,%xmm1 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,194,216,1 // cmpltps %xmm0,%xmm3 .byte 15,84,195 // andps %xmm3,%xmm0 .byte 15,85,221 // andnps %xmm5,%xmm3 .byte 15,86,216 // orps %xmm0,%xmm3 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,89,160,230,97,0,0 // mulps 0x61e6(%eax),%xmm4 .byte 15,89,152,246,97,0,0 // mulps 0x61f6(%eax),%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_load_a8_sse2 .globl _sk_load_a8_sse2 FUNCTION(_sk_load_a8_sse2) _sk_load_a8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 3b8a <_sk_load_a8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,60 // jne 3be1 <_sk_load_a8_sse2+0x65> .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 102,15,219,130,22,97,0,0 // pand 0x6116(%edx),%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 .byte 15,89,154,38,97,0,0 // mulps 0x6126(%edx),%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,50 // je 3c1b <_sk_load_a8_sse2+0x9f> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 3c05 <_sk_load_a8_sse2+0x89> .byte 128,251,3 // cmp $0x3,%bl .byte 117,187 // jne 3bb2 <_sk_load_a8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi .byte 102,15,110,206 // movd %esi,%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 .byte 235,151 // jmp 3bb2 <_sk_load_a8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,198 // movd %esi,%xmm0 .byte 235,141 // jmp 3bb2 <_sk_load_a8_sse2+0x36> HIDDEN _sk_load_a8_dst_sse2 .globl _sk_load_a8_dst_sse2 FUNCTION(_sk_load_a8_dst_sse2) _sk_load_a8_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,49 // mov (%ecx),%esi .byte 139,16 // mov (%eax),%edx .byte 139,122,4 // mov 0x4(%edx),%edi .byte 15,175,121,4 // imul 0x4(%ecx),%edi .byte 3,58 // add (%edx),%edi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,127,97,48 // movdqa %xmm4,0x30(%ecx) .byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx) .byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx) .byte 133,219 // test %ebx,%ebx .byte 232,0,0,0,0 // call 3c5e <_sk_load_a8_dst_sse2+0x39> .byte 90 // pop %edx .byte 117,54 // jne 3c97 <_sk_load_a8_dst_sse2+0x72> .byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,219,162,98,96,0,0 // pand 0x6062(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,114,96,0,0 // mulps 0x6072(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,46 // je 3ccd <_sk_load_a8_dst_sse2+0xa8> .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 3cb7 <_sk_load_a8_dst_sse2+0x92> .byte 128,251,3 // cmp $0x3,%bl .byte 117,197 // jne 3c6e <_sk_load_a8_dst_sse2+0x49> .byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 15,183,52,55 // movzwl (%edi,%esi,1),%esi .byte 102,15,110,238 // movd %esi,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 235,161 // jmp 3c6e <_sk_load_a8_dst_sse2+0x49> .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 235,151 // jmp 3c6e <_sk_load_a8_dst_sse2+0x49> HIDDEN _sk_gather_a8_sse2 .globl _sk_gather_a8_sse2 FUNCTION(_sk_gather_a8_sse2) _sk_gather_a8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 15,182,52,50 // movzbl (%edx,%esi,1),%esi .byte 15,182,60,58 // movzbl (%edx,%edi,1),%edi .byte 193,231,8 // shl $0x8,%edi .byte 9,247 // or %esi,%edi .byte 102,15,126,206 // movd %xmm1,%esi .byte 15,182,12,10 // movzbl (%edx,%ecx,1),%ecx .byte 15,182,20,50 // movzbl (%edx,%esi,1),%edx .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx .byte 102,15,196,194,0 // pinsrw $0x0,%edx,%xmm0 .byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0 .byte 232,0,0,0,0 // call 3d5c <_sk_gather_a8_sse2+0x85> .byte 89 // pop %ecx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 .byte 15,89,153,132,95,0,0 // mulps 0x5f84(%ecx),%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,16 // add $0x10,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_a8_sse2 .globl _sk_store_a8_sse2 FUNCTION(_sk_store_a8_sse2) _sk_store_a8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,60 // sub $0x3c,%esp .byte 232,0,0,0,0 // call 3da0 <_sk_store_a8_sse2+0xe> .byte 94 // pop %esi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,87,4 // mov 0x4(%edi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 3,23 // add (%edi),%edx .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 15,40,166,80,95,0,0 // movaps 0x5f50(%esi),%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,228 // packssdw %xmm4,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,26 // jne 3df5 <_sk_store_a8_sse2+0x63> .byte 102,15,126,230 // movd %xmm4,%esi .byte 137,52,58 // mov %esi,(%edx,%edi,1) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,76 // add $0x4c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,57 // je 3e3e <_sk_store_a8_sse2+0xac> .byte 128,251,2 // cmp $0x2,%bl .byte 116,17 // je 3e1b <_sk_store_a8_sse2+0x89> .byte 128,251,3 // cmp $0x3,%bl .byte 117,211 // jne 3de2 <_sk_store_a8_sse2+0x50> .byte 102,15,127,101,200 // movdqa %xmm4,-0x38(%ebp) .byte 138,93,208 // mov -0x30(%ebp),%bl .byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1) .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4 .byte 102,15,219,166,96,95,0,0 // pand 0x5f60(%esi),%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,137,52,58 // mov %si,(%edx,%edi,1) .byte 235,164 // jmp 3de2 <_sk_store_a8_sse2+0x50> .byte 102,15,127,101,216 // movdqa %xmm4,-0x28(%ebp) .byte 138,93,216 // mov -0x28(%ebp),%bl .byte 136,28,58 // mov %bl,(%edx,%edi,1) .byte 235,151 // jmp 3de2 <_sk_store_a8_sse2+0x50> HIDDEN _sk_load_g8_sse2 .globl _sk_load_g8_sse2 FUNCTION(_sk_load_g8_sse2) _sk_load_g8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 3e59 <_sk_load_g8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,63 // jne 3eb3 <_sk_load_g8_sse2+0x68> .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 102,15,219,130,183,94,0,0 // pand 0x5eb7(%edx),%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,130,199,94,0,0 // mulps 0x5ec7(%edx),%xmm0 .byte 141,112,8 // lea 0x8(%eax),%esi .byte 131,236,8 // sub $0x8,%esp .byte 15,40,154,215,94,0,0 // movaps 0x5ed7(%edx),%xmm3 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 86 // push %esi .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,50 // je 3eed <_sk_load_g8_sse2+0xa2> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 3ed7 <_sk_load_g8_sse2+0x8c> .byte 128,251,3 // cmp $0x3,%bl .byte 117,184 // jne 3e81 <_sk_load_g8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi .byte 102,15,110,206 // movd %esi,%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 .byte 235,148 // jmp 3e81 <_sk_load_g8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,198 // movd %esi,%xmm0 .byte 235,138 // jmp 3e81 <_sk_load_g8_sse2+0x36> HIDDEN _sk_load_g8_dst_sse2 .globl _sk_load_g8_dst_sse2 FUNCTION(_sk_load_g8_dst_sse2) _sk_load_g8_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 3f05 <_sk_load_g8_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,73 // jne 3f69 <_sk_load_g8_dst_sse2+0x72> .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,219,162,59,94,0,0 // pand 0x5e3b(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,75,94,0,0 // mulps 0x5e4b(%edx),%xmm4 .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx) .byte 15,41,97,32 // movaps %xmm4,0x20(%ecx) .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx) .byte 15,40,162,91,94,0,0 // movaps 0x5e5b(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,50 // je 3fa3 <_sk_load_g8_dst_sse2+0xac> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 3f8d <_sk_load_g8_dst_sse2+0x96> .byte 128,251,3 // cmp $0x3,%bl .byte 117,174 // jne 3f2d <_sk_load_g8_dst_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi .byte 102,15,110,238 // movd %esi,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 235,138 // jmp 3f2d <_sk_load_g8_dst_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 235,128 // jmp 3f2d <_sk_load_g8_dst_sse2+0x36> HIDDEN _sk_gather_g8_sse2 .globl _sk_gather_g8_sse2 FUNCTION(_sk_gather_g8_sse2) _sk_gather_g8_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 15,182,52,50 // movzbl (%edx,%esi,1),%esi .byte 15,182,60,58 // movzbl (%edx,%edi,1),%edi .byte 193,231,8 // shl $0x8,%edi .byte 9,247 // or %esi,%edi .byte 102,15,126,206 // movd %xmm1,%esi .byte 15,182,12,10 // movzbl (%edx,%ecx,1),%ecx .byte 15,182,20,50 // movzbl (%edx,%esi,1),%edx .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx .byte 102,15,196,194,0 // pinsrw $0x0,%edx,%xmm0 .byte 232,0,0,0,0 // call 402d <_sk_gather_g8_sse2+0x80> .byte 89 // pop %ecx .byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,129,67,93,0,0 // mulps 0x5d43(%ecx),%xmm0 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,153,83,93,0,0 // movaps 0x5d53(%ecx),%xmm3 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 82 // push %edx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,16 // add $0x10,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_load_565_sse2 .globl _sk_load_565_sse2 FUNCTION(_sk_load_565_sse2) _sk_load_565_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4078 <_sk_load_565_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,97 // jne 40f6 <_sk_load_565_sse2+0x8c> .byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,111,130,24,93,0,0 // movdqa 0x5d18(%edx),%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,130,40,93,0,0 // mulps 0x5d28(%edx),%xmm0 .byte 102,15,111,138,56,93,0,0 // movdqa 0x5d38(%edx),%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,138,72,93,0,0 // mulps 0x5d48(%edx),%xmm1 .byte 102,15,219,146,88,93,0,0 // pand 0x5d58(%edx),%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,146,104,93,0,0 // mulps 0x5d68(%edx),%xmm2 .byte 141,112,8 // lea 0x8(%eax),%esi .byte 131,236,8 // sub $0x8,%esp .byte 15,40,154,120,93,0,0 // movaps 0x5d78(%edx),%xmm3 .byte 86 // push %esi .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,46 // je 412c <_sk_load_565_sse2+0xc2> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 411a <_sk_load_565_sse2+0xb0> .byte 128,251,3 // cmp $0x3,%bl .byte 117,146 // jne 409e <_sk_load_565_sse2+0x34> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2 .byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 242,15,16,208 // movsd %xmm0,%xmm2 .byte 233,114,255,255,255 // jmp 409e <_sk_load_565_sse2+0x34> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,214 // movd %esi,%xmm2 .byte 233,101,255,255,255 // jmp 409e <_sk_load_565_sse2+0x34> HIDDEN _sk_load_565_dst_sse2 .globl _sk_load_565_dst_sse2 FUNCTION(_sk_load_565_dst_sse2) _sk_load_565_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4147 <_sk_load_565_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,113 // jne 41d5 <_sk_load_565_dst_sse2+0x9c> .byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,111,170,185,92,0,0 // movdqa 0x5cb9(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,170,201,92,0,0 // mulps 0x5cc9(%edx),%xmm5 .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx) .byte 102,15,111,170,217,92,0,0 // movdqa 0x5cd9(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,170,233,92,0,0 // mulps 0x5ce9(%edx),%xmm5 .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) .byte 102,15,219,162,249,92,0,0 // pand 0x5cf9(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,9,93,0,0 // mulps 0x5d09(%edx),%xmm4 .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx) .byte 15,40,162,25,93,0,0 // movaps 0x5d19(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,46 // je 420b <_sk_load_565_dst_sse2+0xd2> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 41f9 <_sk_load_565_dst_sse2+0xc0> .byte 128,251,3 // cmp $0x3,%bl .byte 117,130 // jne 416d <_sk_load_565_dst_sse2+0x34> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 233,98,255,255,255 // jmp 416d <_sk_load_565_dst_sse2+0x34> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 233,85,255,255,255 // jmp 416d <_sk_load_565_dst_sse2+0x34> HIDDEN _sk_gather_565_sse2 .globl _sk_gather_565_sse2 FUNCTION(_sk_gather_565_sse2) _sk_gather_565_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,196,20,74,0 // pinsrw $0x0,(%edx,%ecx,2),%xmm2 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,196,20,74,1 // pinsrw $0x1,(%edx,%ecx,2),%xmm2 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx .byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx .byte 232,0,0,0,0 // call 4293 <_sk_gather_565_sse2+0x7b> .byte 90 // pop %edx .byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,111,130,221,91,0,0 // movdqa 0x5bdd(%edx),%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,130,237,91,0,0 // mulps 0x5bed(%edx),%xmm0 .byte 102,15,111,138,253,91,0,0 // movdqa 0x5bfd(%edx),%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,138,13,92,0,0 // mulps 0x5c0d(%edx),%xmm1 .byte 102,15,219,146,29,92,0,0 // pand 0x5c1d(%edx),%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,146,45,92,0,0 // mulps 0x5c2d(%edx),%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,154,61,92,0,0 // movaps 0x5c3d(%edx),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_565_sse2 .globl _sk_store_565_sse2 FUNCTION(_sk_store_565_sse2) _sk_store_565_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4306 <_sk_store_565_sse2+0xe> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 1,210 // add %edx,%edx .byte 3,22 // add (%esi),%edx .byte 139,49 // mov (%ecx),%esi .byte 15,40,167,218,91,0,0 // movaps 0x5bda(%edi),%xmm4 .byte 15,40,175,234,91,0,0 // movaps 0x5bea(%edi),%xmm5 .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 .byte 102,15,114,246,11 // pslld $0xb,%xmm6 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 102,15,114,245,5 // pslld $0x5,%xmm5 .byte 102,15,235,238 // por %xmm6,%xmm5 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,86,229 // orpd %xmm5,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,228 // packssdw %xmm4,%xmm4 .byte 102,15,126,101,232 // movd %xmm4,-0x18(%ebp) .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5 .byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp) .byte 133,219 // test %ebx,%ebx .byte 117,34 // jne 439a <_sk_store_565_sse2+0xa2> .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,126,235 // movd %xmm5,%ebx .byte 137,60,114 // mov %edi,(%edx,%esi,2) .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,37 // je 43d0 <_sk_store_565_sse2+0xd8> .byte 128,251,2 // cmp $0x2,%bl .byte 116,15 // je 43bf <_sk_store_565_sse2+0xc7> .byte 128,251,3 // cmp $0x3,%bl .byte 117,210 // jne 4387 <_sk_store_565_sse2+0x8f> .byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2) .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4 .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4 .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2) .byte 235,183 // jmp 4387 <_sk_store_565_sse2+0x8f> .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,137,60,114 // mov %di,(%edx,%esi,2) .byte 235,173 // jmp 4387 <_sk_store_565_sse2+0x8f> HIDDEN _sk_load_4444_sse2 .globl _sk_load_4444_sse2 FUNCTION(_sk_load_4444_sse2) _sk_load_4444_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 43e8 <_sk_load_4444_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,112 // jne 4475 <_sk_load_4444_sse2+0x9b> .byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 102,15,111,130,24,91,0,0 // movdqa 0x5b18(%edx),%xmm0 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,130,40,91,0,0 // mulps 0x5b28(%edx),%xmm0 .byte 102,15,111,138,56,91,0,0 // movdqa 0x5b38(%edx),%xmm1 .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,138,72,91,0,0 // mulps 0x5b48(%edx),%xmm1 .byte 102,15,111,146,88,91,0,0 // movdqa 0x5b58(%edx),%xmm2 .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,146,104,91,0,0 // mulps 0x5b68(%edx),%xmm2 .byte 102,15,219,154,120,91,0,0 // pand 0x5b78(%edx),%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,154,136,91,0,0 // mulps 0x5b88(%edx),%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,46 // je 44ab <_sk_load_4444_sse2+0xd1> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 128,251,2 // cmp $0x2,%bl .byte 116,19 // je 4499 <_sk_load_4444_sse2+0xbf> .byte 128,251,3 // cmp $0x3,%bl .byte 117,131 // jne 440e <_sk_load_4444_sse2+0x34> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 .byte 242,15,16,216 // movsd %xmm0,%xmm3 .byte 233,99,255,255,255 // jmp 440e <_sk_load_4444_sse2+0x34> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,222 // movd %esi,%xmm3 .byte 233,86,255,255,255 // jmp 440e <_sk_load_4444_sse2+0x34> HIDDEN _sk_load_4444_dst_sse2 .globl _sk_load_4444_dst_sse2 FUNCTION(_sk_load_4444_dst_sse2) _sk_load_4444_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 44c6 <_sk_load_4444_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 15,133,128,0,0,0 // jne 4567 <_sk_load_4444_dst_sse2+0xaf> .byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 102,15,111,170,186,90,0,0 // movdqa 0x5aba(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,170,202,90,0,0 // mulps 0x5aca(%edx),%xmm5 .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx) .byte 102,15,111,170,218,90,0,0 // movdqa 0x5ada(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,170,234,90,0,0 // mulps 0x5aea(%edx),%xmm5 .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) .byte 102,15,111,170,250,90,0,0 // movdqa 0x5afa(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,89,170,10,91,0,0 // mulps 0x5b0a(%edx),%xmm5 .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx) .byte 102,15,219,162,26,91,0,0 // pand 0x5b1a(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,162,42,91,0,0 // mulps 0x5b2a(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,50 // je 45a1 <_sk_load_4444_dst_sse2+0xe9> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,23 // je 458f <_sk_load_4444_dst_sse2+0xd7> .byte 128,251,3 // cmp $0x3,%bl .byte 15,133,111,255,255,255 // jne 44f0 <_sk_load_4444_dst_sse2+0x38> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 .byte 233,79,255,255,255 // jmp 44f0 <_sk_load_4444_dst_sse2+0x38> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 233,66,255,255,255 // jmp 44f0 <_sk_load_4444_dst_sse2+0x38> HIDDEN _sk_gather_4444_sse2 .globl _sk_gather_4444_sse2 FUNCTION(_sk_gather_4444_sse2) _sk_gather_4444_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,196,28,74,0 // pinsrw $0x0,(%edx,%ecx,2),%xmm3 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,196,28,74,1 // pinsrw $0x1,(%edx,%ecx,2),%xmm3 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx .byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3 .byte 232,0,0,0,0 // call 462e <_sk_gather_4444_sse2+0x80> .byte 89 // pop %ecx .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 102,15,111,129,210,89,0,0 // movdqa 0x59d2(%ecx),%xmm0 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,129,226,89,0,0 // mulps 0x59e2(%ecx),%xmm0 .byte 102,15,111,137,242,89,0,0 // movdqa 0x59f2(%ecx),%xmm1 .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,137,2,90,0,0 // mulps 0x5a02(%ecx),%xmm1 .byte 102,15,111,145,18,90,0,0 // movdqa 0x5a12(%ecx),%xmm2 .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,145,34,90,0,0 // mulps 0x5a22(%ecx),%xmm2 .byte 102,15,219,153,50,90,0,0 // pand 0x5a32(%ecx),%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,153,66,90,0,0 // mulps 0x5a42(%ecx),%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_4444_sse2 .globl _sk_store_4444_sse2 FUNCTION(_sk_store_4444_sse2) _sk_store_4444_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 46ab <_sk_store_4444_sse2+0xe> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 1,210 // add %edx,%edx .byte 3,22 // add (%esi),%edx .byte 139,49 // mov (%ecx),%esi .byte 15,40,167,213,89,0,0 // movaps 0x59d5(%edi),%xmm4 .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 102,15,114,245,12 // pslld $0xc,%xmm5 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 .byte 102,15,114,246,8 // pslld $0x8,%xmm6 .byte 102,15,235,245 // por %xmm5,%xmm6 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 102,15,114,245,4 // pslld $0x4,%xmm5 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,86,229 // orpd %xmm5,%xmm4 .byte 102,15,86,230 // orpd %xmm6,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,228 // packssdw %xmm4,%xmm4 .byte 102,15,126,101,232 // movd %xmm4,-0x18(%ebp) .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5 .byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp) .byte 133,219 // test %ebx,%ebx .byte 117,34 // jne 474e <_sk_store_4444_sse2+0xb1> .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,126,235 // movd %xmm5,%ebx .byte 137,60,114 // mov %edi,(%edx,%esi,2) .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,37 // je 4784 <_sk_store_4444_sse2+0xe7> .byte 128,251,2 // cmp $0x2,%bl .byte 116,15 // je 4773 <_sk_store_4444_sse2+0xd6> .byte 128,251,3 // cmp $0x3,%bl .byte 117,210 // jne 473b <_sk_store_4444_sse2+0x9e> .byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2) .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4 .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4 .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2) .byte 235,183 // jmp 473b <_sk_store_4444_sse2+0x9e> .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,137,60,114 // mov %di,(%edx,%esi,2) .byte 235,173 // jmp 473b <_sk_store_4444_sse2+0x9e> HIDDEN _sk_load_8888_sse2 .globl _sk_load_8888_sse2 FUNCTION(_sk_load_8888_sse2) _sk_load_8888_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 479c <_sk_load_8888_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,2 // shl $0x2,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,102 // jne 4820 <_sk_load_8888_sse2+0x92> .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3 .byte 102,15,111,146,244,88,0,0 // movdqa 0x58f4(%edx),%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,162,4,89,0,0 // movaps 0x5904(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,114,213,16 // psrld $0x10,%xmm5 .byte 102,15,219,234 // pand %xmm2,%xmm5 .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,35 // je 484b <_sk_load_8888_sse2+0xbd> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 128,251,2 // cmp $0x2,%bl .byte 116,16 // je 4841 <_sk_load_8888_sse2+0xb3> .byte 128,251,3 // cmp $0x3,%bl .byte 117,137 // jne 47bf <_sk_load_8888_sse2+0x31> .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3 .byte 233,116,255,255,255 // jmp 47bf <_sk_load_8888_sse2+0x31> .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3 .byte 233,106,255,255,255 // jmp 47bf <_sk_load_8888_sse2+0x31> HIDDEN _sk_load_8888_dst_sse2 .globl _sk_load_8888_dst_sse2 FUNCTION(_sk_load_8888_dst_sse2) _sk_load_8888_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4863 <_sk_load_8888_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,2 // shl $0x2,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,118 // jne 48f7 <_sk_load_8888_dst_sse2+0xa2> .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4 .byte 102,15,111,170,77,88,0,0 // movdqa 0x584d(%edx),%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,40,186,93,88,0,0 // movaps 0x585d(%edx),%xmm7 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx) .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,114,214,8 // psrld $0x8,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx) .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,114,214,16 // psrld $0x10,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx) .byte 102,15,114,212,24 // psrld $0x18,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,39 // je 4926 <_sk_load_8888_dst_sse2+0xd1> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,20 // je 491c <_sk_load_8888_dst_sse2+0xc7> .byte 128,251,3 // cmp $0x3,%bl .byte 15,133,117,255,255,255 // jne 4886 <_sk_load_8888_dst_sse2+0x31> .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4 .byte 233,96,255,255,255 // jmp 4886 <_sk_load_8888_dst_sse2+0x31> .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4 .byte 233,86,255,255,255 // jmp 4886 <_sk_load_8888_dst_sse2+0x31> HIDDEN _sk_gather_8888_sse2 .globl _sk_gather_8888_sse2 FUNCTION(_sk_gather_8888_sse2) _sk_gather_8888_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2 .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0 .byte 232,0,0,0,0 // call 49a6 <_sk_gather_8888_sse2+0x76> .byte 89 // pop %ecx .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,98,216 // punpckldq %xmm0,%xmm3 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,111,145,42,87,0,0 // movdqa 0x572a(%ecx),%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,161,58,87,0,0 // movaps 0x573a(%ecx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,114,213,16 // psrld $0x10,%xmm5 .byte 102,15,219,234 // pand %xmm2,%xmm5 .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_8888_sse2 .globl _sk_store_8888_sse2 FUNCTION(_sk_store_8888_sse2) _sk_store_8888_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4a21 <_sk_store_8888_sse2+0xe> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 193,226,2 // shl $0x2,%edx .byte 3,22 // add (%esi),%edx .byte 139,49 // mov (%ecx),%esi .byte 15,40,167,207,86,0,0 // movaps 0x56cf(%edi),%xmm4 .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 .byte 102,15,114,246,8 // pslld $0x8,%xmm6 .byte 102,15,235,245 // por %xmm5,%xmm6 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 102,15,114,245,16 // pslld $0x10,%xmm5 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,114,244,24 // pslld $0x18,%xmm4 .byte 102,15,235,229 // por %xmm5,%xmm4 .byte 102,15,235,230 // por %xmm6,%xmm4 .byte 133,219 // test %ebx,%ebx .byte 117,24 // jne 4a9e <_sk_store_8888_sse2+0x8b> .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,28 // je 4ac2 <_sk_store_8888_sse2+0xaf> .byte 128,251,2 // cmp $0x2,%bl .byte 116,16 // je 4abb <_sk_store_8888_sse2+0xa8> .byte 128,251,3 // cmp $0x3,%bl .byte 117,219 // jne 4a8b <_sk_store_8888_sse2+0x78> .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4) .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4) .byte 235,201 // jmp 4a8b <_sk_store_8888_sse2+0x78> .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4) .byte 235,194 // jmp 4a8b <_sk_store_8888_sse2+0x78> HIDDEN _sk_load_bgra_sse2 .globl _sk_load_bgra_sse2 FUNCTION(_sk_load_bgra_sse2) _sk_load_bgra_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4ad7 <_sk_load_bgra_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,2 // shl $0x2,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,102 // jne 4b5b <_sk_load_bgra_sse2+0x92> .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3 .byte 102,15,111,130,41,86,0,0 // movdqa 0x5629(%edx),%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 .byte 15,40,162,57,86,0,0 // movaps 0x5639(%edx),%xmm4 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,114,213,16 // psrld $0x10,%xmm5 .byte 102,15,219,232 // pand %xmm0,%xmm5 .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,35 // je 4b86 <_sk_load_bgra_sse2+0xbd> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 128,251,2 // cmp $0x2,%bl .byte 116,16 // je 4b7c <_sk_load_bgra_sse2+0xb3> .byte 128,251,3 // cmp $0x3,%bl .byte 117,137 // jne 4afa <_sk_load_bgra_sse2+0x31> .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3 .byte 233,116,255,255,255 // jmp 4afa <_sk_load_bgra_sse2+0x31> .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3 .byte 233,106,255,255,255 // jmp 4afa <_sk_load_bgra_sse2+0x31> HIDDEN _sk_load_bgra_dst_sse2 .globl _sk_load_bgra_dst_sse2 FUNCTION(_sk_load_bgra_dst_sse2) _sk_load_bgra_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4b9e <_sk_load_bgra_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,2 // shl $0x2,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 117,118 // jne 4c32 <_sk_load_bgra_dst_sse2+0xa2> .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4 .byte 102,15,111,170,130,85,0,0 // movdqa 0x5582(%edx),%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,40,186,146,85,0,0 // movaps 0x5592(%edx),%xmm7 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx) .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,114,214,8 // psrld $0x8,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx) .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,114,214,16 // psrld $0x10,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx) .byte 102,15,114,212,24 // psrld $0x18,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,39 // je 4c61 <_sk_load_bgra_dst_sse2+0xd1> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl .byte 116,20 // je 4c57 <_sk_load_bgra_dst_sse2+0xc7> .byte 128,251,3 // cmp $0x3,%bl .byte 15,133,117,255,255,255 // jne 4bc1 <_sk_load_bgra_dst_sse2+0x31> .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4 .byte 233,96,255,255,255 // jmp 4bc1 <_sk_load_bgra_dst_sse2+0x31> .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4 .byte 233,86,255,255,255 // jmp 4bc1 <_sk_load_bgra_dst_sse2+0x31> HIDDEN _sk_gather_bgra_sse2 .globl _sk_gather_bgra_sse2 FUNCTION(_sk_gather_bgra_sse2) _sk_gather_bgra_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2 .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0 .byte 232,0,0,0,0 // call 4ce1 <_sk_gather_bgra_sse2+0x76> .byte 89 // pop %ecx .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,98,216 // punpckldq %xmm0,%xmm3 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,111,129,95,84,0,0 // movdqa 0x545f(%ecx),%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 .byte 15,40,161,111,84,0,0 // movaps 0x546f(%ecx),%xmm4 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,111,235 // movdqa %xmm3,%xmm5 .byte 102,15,114,213,16 // psrld $0x10,%xmm5 .byte 102,15,219,232 // pand %xmm0,%xmm5 .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_bgra_sse2 .globl _sk_store_bgra_sse2 FUNCTION(_sk_store_bgra_sse2) _sk_store_bgra_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 232,0,0,0,0 // call 4d5c <_sk_store_bgra_sse2+0xe> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 193,226,2 // shl $0x2,%edx .byte 3,22 // add (%esi),%edx .byte 139,49 // mov (%ecx),%esi .byte 15,40,167,4,84,0,0 // movaps 0x5404(%edi),%xmm4 .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 .byte 102,15,114,246,8 // pslld $0x8,%xmm6 .byte 102,15,235,245 // por %xmm5,%xmm6 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 102,15,114,245,16 // pslld $0x10,%xmm5 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,114,244,24 // pslld $0x18,%xmm4 .byte 102,15,235,229 // por %xmm5,%xmm4 .byte 102,15,235,230 // por %xmm6,%xmm4 .byte 133,219 // test %ebx,%ebx .byte 117,24 // jne 4dd9 <_sk_store_bgra_sse2+0x8b> .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl .byte 116,28 // je 4dfd <_sk_store_bgra_sse2+0xaf> .byte 128,251,2 // cmp $0x2,%bl .byte 116,16 // je 4df6 <_sk_store_bgra_sse2+0xa8> .byte 128,251,3 // cmp $0x3,%bl .byte 117,219 // jne 4dc6 <_sk_store_bgra_sse2+0x78> .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4) .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4) .byte 235,201 // jmp 4dc6 <_sk_store_bgra_sse2+0x78> .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4) .byte 235,194 // jmp 4dc6 <_sk_store_bgra_sse2+0x78> HIDDEN _sk_load_f16_sse2 .globl _sk_load_f16_sse2 FUNCTION(_sk_load_f16_sse2) _sk_load_f16_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,92 // sub $0x5c,%esp .byte 232,0,0,0,0 // call 4e12 <_sk_load_f16_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,3 // shl $0x3,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 15,133,160,1,0,0 // jne 4fd4 <_sk_load_f16_sse2+0x1d0> .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0 .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1 .byte 102,15,40,216 // movapd %xmm0,%xmm3 .byte 102,15,97,217 // punpcklwd %xmm1,%xmm3 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3 .byte 102,15,126,85,208 // movd %xmm2,-0x30(%ebp) .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp) .byte 243,15,126,77,208 // movq -0x30(%ebp),%xmm1 .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp) .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp) .byte 243,15,126,125,216 // movq -0x28(%ebp),%xmm7 .byte 102,15,126,93,224 // movd %xmm3,-0x20(%ebp) .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0 .byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp) .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5 .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0 .byte 102,15,126,69,236 // movd %xmm0,-0x14(%ebp) .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0 .byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp) .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,111,154,94,83,0,0 // movdqa 0x535e(%edx),%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,239,204 // pxor %xmm4,%xmm1 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,114,242,13 // pslld $0xd,%xmm2 .byte 102,15,235,212 // por %xmm4,%xmm2 .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,239,252 // pxor %xmm4,%xmm7 .byte 102,15,127,125,152 // movdqa %xmm7,-0x68(%ebp) .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 .byte 102,15,114,246,13 // pslld $0xd,%xmm6 .byte 102,15,235,244 // por %xmm4,%xmm6 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 102,15,111,253 // movdqa %xmm5,%xmm7 .byte 102,15,219,251 // pand %xmm3,%xmm7 .byte 102,15,239,239 // pxor %xmm7,%xmm5 .byte 102,15,127,109,168 // movdqa %xmm5,-0x58(%ebp) .byte 102,15,114,247,16 // pslld $0x10,%xmm7 .byte 102,15,114,245,13 // pslld $0xd,%xmm5 .byte 102,15,235,239 // por %xmm7,%xmm5 .byte 243,15,126,125,232 // movq -0x18(%ebp),%xmm7 .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7 .byte 102,15,219,223 // pand %xmm7,%xmm3 .byte 102,15,239,251 // pxor %xmm3,%xmm7 .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,111,199 // movdqa %xmm7,%xmm0 .byte 102,15,114,240,13 // pslld $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 .byte 102,15,111,154,110,83,0,0 // movdqa 0x536e(%edx),%xmm3 .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,254,243 // paddd %xmm3,%xmm6 .byte 102,15,254,235 // paddd %xmm3,%xmm5 .byte 102,15,254,195 // paddd %xmm3,%xmm0 .byte 102,15,111,154,126,83,0,0 // movdqa 0x537e(%edx),%xmm3 .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp) .byte 102,15,239,203 // pxor %xmm3,%xmm1 .byte 102,15,111,154,142,83,0,0 // movdqa 0x538e(%edx),%xmm3 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4 .byte 102,15,223,226 // pandn %xmm2,%xmm4 .byte 102,15,111,85,152 // movdqa -0x68(%ebp),%xmm2 .byte 102,15,239,85,184 // pxor -0x48(%ebp),%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,102,202 // pcmpgtd %xmm2,%xmm1 .byte 102,15,223,206 // pandn %xmm6,%xmm1 .byte 102,15,111,117,168 // movdqa -0x58(%ebp),%xmm6 .byte 102,15,239,117,184 // pxor -0x48(%ebp),%xmm6 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,102,214 // pcmpgtd %xmm6,%xmm2 .byte 102,15,223,213 // pandn %xmm5,%xmm2 .byte 102,15,239,125,184 // pxor -0x48(%ebp),%xmm7 .byte 102,15,102,223 // pcmpgtd %xmm7,%xmm3 .byte 102,15,223,216 // pandn %xmm0,%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,108 // add $0x6c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,251,1 // cmp $0x1,%ebx .byte 15,132,89,254,255,255 // je 4e3f <_sk_load_f16_sse2+0x3b> .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0 .byte 131,251,3 // cmp $0x3,%ebx .byte 15,130,74,254,255,255 // jb 4e3f <_sk_load_f16_sse2+0x3b> .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1 .byte 233,63,254,255,255 // jmp 4e3f <_sk_load_f16_sse2+0x3b> HIDDEN _sk_load_f16_dst_sse2 .globl _sk_load_f16_dst_sse2 FUNCTION(_sk_load_f16_dst_sse2) _sk_load_f16_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 129,236,140,0,0,0 // sub $0x8c,%esp .byte 15,41,157,104,255,255,255 // movaps %xmm3,-0x98(%ebp) .byte 15,41,149,120,255,255,255 // movaps %xmm2,-0x88(%ebp) .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp) .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp) .byte 232,0,0,0,0 // call 5028 <_sk_load_f16_dst_sse2+0x28> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,3 // shl $0x3,%esi .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi .byte 15,133,206,1,0,0 // jne 5218 <_sk_load_f16_dst_sse2+0x218> .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0 .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,126,93,208 // movd %xmm3,-0x30(%ebp) .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0 .byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp) .byte 243,15,126,101,208 // movq -0x30(%ebp),%xmm4 .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0 .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp) .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0 .byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp) .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0 .byte 102,15,126,85,224 // movd %xmm2,-0x20(%ebp) .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,93,228 // movd %xmm3,-0x1c(%ebp) .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5 .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3 .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp) .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2 .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp) .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4 .byte 102,15,111,154,136,81,0,0 // movdqa 0x5188(%edx),%xmm3 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 102,15,239,226 // pxor %xmm2,%xmm4 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,111,204 // movdqa %xmm4,%xmm1 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,15,235,202 // por %xmm2,%xmm1 .byte 102,15,111,146,168,81,0,0 // movdqa 0x51a8(%edx),%xmm2 .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp) .byte 102,15,239,226 // pxor %xmm2,%xmm4 .byte 102,15,111,178,184,81,0,0 // movdqa 0x51b8(%edx),%xmm6 .byte 102,15,111,254 // movdqa %xmm6,%xmm7 .byte 102,15,102,252 // pcmpgtd %xmm4,%xmm7 .byte 102,15,111,146,152,81,0,0 // movdqa 0x5198(%edx),%xmm2 .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp) .byte 102,15,254,202 // paddd %xmm2,%xmm1 .byte 102,15,223,249 // pandn %xmm1,%xmm7 .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2 .byte 102,15,127,121,16 // movdqa %xmm7,0x10(%ecx) .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 102,15,239,193 // pxor %xmm1,%xmm0 .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,114,247,13 // pslld $0xd,%xmm7 .byte 102,15,235,249 // por %xmm1,%xmm7 .byte 102,15,111,101,168 // movdqa -0x58(%ebp),%xmm4 .byte 102,15,239,196 // pxor %xmm4,%xmm0 .byte 102,15,111,206 // movdqa %xmm6,%xmm1 .byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1 .byte 102,15,254,125,184 // paddd -0x48(%ebp),%xmm7 .byte 102,15,223,207 // pandn %xmm7,%xmm1 .byte 102,15,127,73,32 // movdqa %xmm1,0x20(%ecx) .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,97,239 // punpcklwd %xmm7,%xmm5 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 102,15,239,232 // pxor %xmm0,%xmm5 .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,239,236 // pxor %xmm4,%xmm5 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,15,102,197 // pcmpgtd %xmm5,%xmm0 .byte 102,15,111,109,184 // movdqa -0x48(%ebp),%xmm5 .byte 102,15,254,205 // paddd %xmm5,%xmm1 .byte 102,15,223,193 // pandn %xmm1,%xmm0 .byte 102,15,127,65,48 // movdqa %xmm0,0x30(%ecx) .byte 102,15,97,215 // punpcklwd %xmm7,%xmm2 .byte 102,15,219,218 // pand %xmm2,%xmm3 .byte 102,15,239,211 // pxor %xmm3,%xmm2 .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,114,240,13 // pslld $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 .byte 102,15,254,197 // paddd %xmm5,%xmm0 .byte 102,15,239,212 // pxor %xmm4,%xmm2 .byte 102,15,102,242 // pcmpgtd %xmm2,%xmm6 .byte 102,15,223,240 // pandn %xmm0,%xmm6 .byte 102,15,127,113,64 // movdqa %xmm6,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,40,77,136 // movaps -0x78(%ebp),%xmm1 .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2 .byte 15,40,157,104,255,255,255 // movaps -0x98(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 129,196,156,0,0,0 // add $0x9c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,251,1 // cmp $0x1,%ebx .byte 15,132,43,254,255,255 // je 5055 <_sk_load_f16_dst_sse2+0x55> .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0 .byte 131,251,3 // cmp $0x3,%ebx .byte 15,130,28,254,255,255 // jb 5055 <_sk_load_f16_dst_sse2+0x55> .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1 .byte 233,17,254,255,255 // jmp 5055 <_sk_load_f16_dst_sse2+0x55> HIDDEN _sk_gather_f16_sse2 .globl _sk_gather_f16_sse2 FUNCTION(_sk_gather_f16_sse2) _sk_gather_f16_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,88 // sub $0x58,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 139,10 // mov (%edx),%ecx .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,110,82,4 // movd 0x4(%edx),%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,218 // pmuludq %xmm2,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,203 // punpckldq %xmm3,%xmm1 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2 .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,110,84,209,4 // movd 0x4(%ecx,%edx,8),%xmm2 .byte 102,15,110,28,209 // movd (%ecx,%edx,8),%xmm3 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,110,76,209,4 // movd 0x4(%ecx,%edx,8),%xmm1 .byte 102,15,110,36,209 // movd (%ecx,%edx,8),%xmm4 .byte 102,15,126,194 // movd %xmm0,%edx .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0 .byte 102,15,110,108,209,4 // movd 0x4(%ecx,%edx,8),%xmm5 .byte 102,15,110,52,209 // movd (%ecx,%edx,8),%xmm6 .byte 102,15,126,194 // movd %xmm0,%edx .byte 102,15,110,68,209,4 // movd 0x4(%ecx,%edx,8),%xmm0 .byte 102,15,110,60,209 // movd (%ecx,%edx,8),%xmm7 .byte 232,0,0,0,0 // call 52d2 <_sk_gather_f16_sse2+0x8e> .byte 89 // pop %ecx .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,98,227 // punpckldq %xmm3,%xmm4 .byte 102,15,98,225 // punpckldq %xmm1,%xmm4 .byte 102,15,98,232 // punpckldq %xmm0,%xmm5 .byte 102,15,98,247 // punpckldq %xmm7,%xmm6 .byte 102,15,98,245 // punpckldq %xmm5,%xmm6 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0 .byte 102,15,105,244 // punpckhwd %xmm4,%xmm6 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,97,214 // punpcklwd %xmm6,%xmm2 .byte 102,15,105,198 // punpckhwd %xmm6,%xmm0 .byte 102,15,126,85,224 // movd %xmm2,-0x20(%ebp) .byte 102,15,112,202,229 // pshufd $0xe5,%xmm2,%xmm1 .byte 102,15,126,77,228 // movd %xmm1,-0x1c(%ebp) .byte 243,15,126,77,224 // movq -0x20(%ebp),%xmm1 .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3 .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp) .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2 .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp) .byte 243,15,126,125,232 // movq -0x18(%ebp),%xmm7 .byte 102,15,126,69,240 // movd %xmm0,-0x10(%ebp) .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3 .byte 102,15,126,93,244 // movd %xmm3,-0xc(%ebp) .byte 243,15,126,109,240 // movq -0x10(%ebp),%xmm5 .byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3 .byte 102,15,126,93,252 // movd %xmm3,-0x4(%ebp) .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0 .byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp) .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,111,153,30,79,0,0 // movdqa 0x4f1e(%ecx),%xmm3 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,239,204 // pxor %xmm4,%xmm1 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,114,242,13 // pslld $0xd,%xmm2 .byte 102,15,235,212 // por %xmm4,%xmm2 .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,239,252 // pxor %xmm4,%xmm7 .byte 102,15,127,125,168 // movdqa %xmm7,-0x58(%ebp) .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 .byte 102,15,114,246,13 // pslld $0xd,%xmm6 .byte 102,15,235,244 // por %xmm4,%xmm6 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 102,15,111,253 // movdqa %xmm5,%xmm7 .byte 102,15,219,251 // pand %xmm3,%xmm7 .byte 102,15,239,239 // pxor %xmm7,%xmm5 .byte 102,15,127,109,184 // movdqa %xmm5,-0x48(%ebp) .byte 102,15,114,247,16 // pslld $0x10,%xmm7 .byte 102,15,114,245,13 // pslld $0xd,%xmm5 .byte 102,15,235,239 // por %xmm7,%xmm5 .byte 243,15,126,125,248 // movq -0x8(%ebp),%xmm7 .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7 .byte 102,15,219,223 // pand %xmm7,%xmm3 .byte 102,15,239,251 // pxor %xmm3,%xmm7 .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,111,199 // movdqa %xmm7,%xmm0 .byte 102,15,114,240,13 // pslld $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 .byte 102,15,111,153,46,79,0,0 // movdqa 0x4f2e(%ecx),%xmm3 .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,254,243 // paddd %xmm3,%xmm6 .byte 102,15,254,235 // paddd %xmm3,%xmm5 .byte 102,15,254,195 // paddd %xmm3,%xmm0 .byte 102,15,111,153,62,79,0,0 // movdqa 0x4f3e(%ecx),%xmm3 .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp) .byte 102,15,239,203 // pxor %xmm3,%xmm1 .byte 102,15,111,153,78,79,0,0 // movdqa 0x4f4e(%ecx),%xmm3 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4 .byte 102,15,223,226 // pandn %xmm2,%xmm4 .byte 102,15,111,85,168 // movdqa -0x58(%ebp),%xmm2 .byte 102,15,239,85,200 // pxor -0x38(%ebp),%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,102,202 // pcmpgtd %xmm2,%xmm1 .byte 102,15,223,206 // pandn %xmm6,%xmm1 .byte 102,15,111,117,184 // movdqa -0x48(%ebp),%xmm6 .byte 102,15,239,117,200 // pxor -0x38(%ebp),%xmm6 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,102,214 // pcmpgtd %xmm6,%xmm2 .byte 102,15,223,213 // pandn %xmm5,%xmm2 .byte 102,15,239,125,200 // pxor -0x38(%ebp),%xmm7 .byte 102,15,102,223 // pcmpgtd %xmm7,%xmm3 .byte 102,15,223,216 // pandn %xmm0,%xmm3 .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,104 // add $0x68,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_store_f16_sse2 .globl _sk_store_f16_sse2 FUNCTION(_sk_store_f16_sse2) _sk_store_f16_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 232,0,0,0,0 // call 5495 <_sk_store_f16_sse2+0x15> .byte 88 // pop %eax .byte 102,15,111,176,155,77,0,0 // movdqa 0x4d9b(%eax),%xmm6 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,219,214 // pand %xmm6,%xmm2 .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp) .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,239,234 // pxor %xmm2,%xmm5 .byte 102,15,111,160,171,77,0,0 // movdqa 0x4dab(%eax),%xmm4 .byte 102,15,114,210,16 // psrld $0x10,%xmm2 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,102,197 // pcmpgtd %xmm5,%xmm0 .byte 102,15,114,213,13 // psrld $0xd,%xmm5 .byte 102,15,111,184,187,77,0,0 // movdqa 0x4dbb(%eax),%xmm7 .byte 102,15,254,215 // paddd %xmm7,%xmm2 .byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp) .byte 102,15,254,213 // paddd %xmm5,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,114,226,16 // psrad $0x10,%xmm2 .byte 102,15,223,194 // pandn %xmm2,%xmm0 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp) .byte 102,15,239,205 // pxor %xmm5,%xmm1 .byte 102,15,114,213,16 // psrld $0x10,%xmm5 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,102,209 // pcmpgtd %xmm1,%xmm2 .byte 102,15,114,209,13 // psrld $0xd,%xmm1 .byte 102,15,254,239 // paddd %xmm7,%xmm5 .byte 102,15,254,233 // paddd %xmm1,%xmm5 .byte 102,15,114,245,16 // pslld $0x10,%xmm5 .byte 102,15,114,229,16 // psrad $0x10,%xmm5 .byte 102,15,223,213 // pandn %xmm5,%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,219,206 // pand %xmm6,%xmm1 .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp) .byte 102,15,239,217 // pxor %xmm1,%xmm3 .byte 102,15,114,209,16 // psrld $0x10,%xmm1 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,102,235 // pcmpgtd %xmm3,%xmm5 .byte 102,15,114,211,13 // psrld $0xd,%xmm3 .byte 102,15,254,77,232 // paddd -0x18(%ebp),%xmm1 .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3 .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,15,114,225,16 // psrad $0x10,%xmm1 .byte 102,15,223,233 // pandn %xmm1,%xmm5 .byte 102,15,219,243 // pand %xmm3,%xmm6 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,239,206 // pxor %xmm6,%xmm1 .byte 102,15,114,214,16 // psrld $0x10,%xmm6 .byte 102,15,254,117,232 // paddd -0x18(%ebp),%xmm6 .byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4 .byte 102,15,114,209,13 // psrld $0xd,%xmm1 .byte 102,15,254,241 // paddd %xmm1,%xmm6 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,114,246,16 // pslld $0x10,%xmm6 .byte 102,15,114,230,16 // psrad $0x10,%xmm6 .byte 102,15,223,230 // pandn %xmm6,%xmm4 .byte 102,15,107,201 // packssdw %xmm1,%xmm1 .byte 102,15,107,210 // packssdw %xmm2,%xmm2 .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1 .byte 102,15,107,237 // packssdw %xmm5,%xmm5 .byte 102,15,107,228 // packssdw %xmm4,%xmm4 .byte 102,15,97,236 // punpcklwd %xmm4,%xmm5 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 193,230,3 // shl $0x3,%esi .byte 3,55 // add (%edi),%esi .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 133,255 // test %edi,%edi .byte 117,53 // jne 5607 <_sk_store_f16_sse2+0x187> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,98,197 // punpckldq %xmm5,%xmm0 .byte 243,15,127,4,214 // movdqu %xmm0,(%esi,%edx,8) .byte 102,15,106,205 // punpckhdq %xmm5,%xmm1 .byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1 .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,96 // add $0x60,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,98,213 // punpckldq %xmm5,%xmm2 .byte 102,15,214,20,214 // movq %xmm2,(%esi,%edx,8) .byte 131,255,1 // cmp $0x1,%edi .byte 116,208 // je 55e9 <_sk_store_f16_sse2+0x169> .byte 102,15,23,84,214,8 // movhpd %xmm2,0x8(%esi,%edx,8) .byte 131,255,3 // cmp $0x3,%edi .byte 114,197 // jb 55e9 <_sk_store_f16_sse2+0x169> .byte 102,15,106,205 // punpckhdq %xmm5,%xmm1 .byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8) .byte 235,185 // jmp 55e9 <_sk_store_f16_sse2+0x169> HIDDEN _sk_load_u16_be_sse2 .globl _sk_load_u16_be_sse2 FUNCTION(_sk_load_u16_be_sse2) _sk_load_u16_be_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,44 // sub $0x2c,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,49 // mov (%ecx),%esi .byte 139,16 // mov (%eax),%edx .byte 139,122,4 // mov 0x4(%edx),%edi .byte 15,175,121,4 // imul 0x4(%ecx),%edi .byte 1,255 // add %edi,%edi .byte 3,58 // add (%edx),%edi .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 193,230,2 // shl $0x2,%esi .byte 133,219 // test %ebx,%ebx .byte 232,0,0,0,0 // call 565b <_sk_load_u16_be_sse2+0x2b> .byte 90 // pop %edx .byte 15,133,11,1,0,0 // jne 576d <_sk_load_u16_be_sse2+0x13d> .byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0 .byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,126,77,216 // movd %xmm1,-0x28(%ebp) .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0 .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp) .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,162,5,76,0,0 // movaps 0x4c05(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,235,233 // por %xmm1,%xmm5 .byte 102,15,126,109,208 // movd %xmm5,-0x30(%ebp) .byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1 .byte 102,15,126,77,212 // movd %xmm1,-0x2c(%ebp) .byte 243,15,126,77,208 // movq -0x30(%ebp),%xmm1 .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,235,213 // por %xmm5,%xmm2 .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp) .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2 .byte 102,15,126,85,236 // movd %xmm2,-0x14(%ebp) .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2 .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 .byte 102,15,235,245 // por %xmm5,%xmm6 .byte 102,15,126,117,224 // movd %xmm6,-0x20(%ebp) .byte 102,15,112,238,229 // pshufd $0xe5,%xmm6,%xmm5 .byte 102,15,126,109,228 // movd %xmm5,-0x1c(%ebp) .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5 .byte 102,15,97,235 // punpcklwd %xmm3,%xmm5 .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,60 // add $0x3c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,251,1 // cmp $0x1,%ebx .byte 15,132,238,254,255,255 // je 566d <_sk_load_u16_be_sse2+0x3d> .byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0 .byte 131,251,3 // cmp $0x3,%ebx .byte 15,130,223,254,255,255 // jb 566d <_sk_load_u16_be_sse2+0x3d> .byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1 .byte 233,212,254,255,255 // jmp 566d <_sk_load_u16_be_sse2+0x3d> HIDDEN _sk_load_rgb_u16_be_sse2 .globl _sk_load_rgb_u16_be_sse2 FUNCTION(_sk_load_rgb_u16_be_sse2) _sk_load_rgb_u16_be_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,28 // sub $0x1c,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 139,16 // mov (%eax),%edx .byte 139,114,4 // mov 0x4(%edx),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,50 // add (%edx),%esi .byte 107,25,3 // imul $0x3,(%ecx),%ebx .byte 133,255 // test %edi,%edi .byte 232,0,0,0,0 // call 57c2 <_sk_load_rgb_u16_be_sse2+0x29> .byte 90 // pop %edx .byte 15,133,240,0,0,0 // jne 58b9 <_sk_load_rgb_u16_be_sse2+0x120> .byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2 .byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,115,216,6 // psrldq $0x6,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,115,217,6 // psrldq $0x6,%xmm1 .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4 .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,126,77,224 // movd %xmm1,-0x20(%ebp) .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0 .byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp) .byte 243,15,126,69,224 // movq -0x20(%ebp),%xmm0 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,170,174,74,0,0 // movaps 0x4aae(%edx),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 102,15,111,204 // movdqa %xmm4,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,235,225 // por %xmm1,%xmm4 .byte 102,15,126,101,216 // movd %xmm4,-0x28(%ebp) .byte 102,15,112,204,229 // pshufd $0xe5,%xmm4,%xmm1 .byte 102,15,126,77,220 // movd %xmm1,-0x24(%ebp) .byte 243,15,126,77,216 // movq -0x28(%ebp),%xmm1 .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 102,15,111,226 // movdqa %xmm2,%xmm4 .byte 102,15,113,244,8 // psllw $0x8,%xmm4 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 .byte 102,15,235,212 // por %xmm4,%xmm2 .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp) .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2 .byte 102,15,126,85,236 // movd %xmm2,-0x14(%ebp) .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2 .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 141,112,8 // lea 0x8(%eax),%esi .byte 131,236,8 // sub $0x8,%esp .byte 15,40,154,190,74,0,0 // movaps 0x4abe(%edx),%xmm3 .byte 86 // push %esi .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,44 // add $0x2c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 102,15,110,20,94 // movd (%esi,%ebx,2),%xmm2 .byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,255,1 // cmp $0x1,%edi .byte 117,13 // jne 58db <_sk_load_rgb_u16_be_sse2+0x142> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 233,16,255,255,255 // jmp 57eb <_sk_load_rgb_u16_be_sse2+0x52> .byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0 .byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,255,3 // cmp $0x3,%edi .byte 114,18 // jb 5903 <_sk_load_rgb_u16_be_sse2+0x16a> .byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3 .byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3 .byte 233,232,254,255,255 // jmp 57eb <_sk_load_rgb_u16_be_sse2+0x52> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 233,223,254,255,255 // jmp 57eb <_sk_load_rgb_u16_be_sse2+0x52> HIDDEN _sk_store_u16_be_sse2 .globl _sk_store_u16_be_sse2 FUNCTION(_sk_store_u16_be_sse2) _sk_store_u16_be_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,16 // sub $0x10,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 232,0,0,0,0 // call 591d <_sk_store_u16_be_sse2+0x11> .byte 88 // pop %eax .byte 15,40,176,115,73,0,0 // movaps 0x4973(%eax),%xmm6 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,228 // packssdw %xmm4,%xmm4 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,235,229 // por %xmm5,%xmm4 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 102,15,91,253 // cvtps2dq %xmm5,%xmm7 .byte 102,15,114,247,16 // pslld $0x10,%xmm7 .byte 102,15,114,231,16 // psrad $0x10,%xmm7 .byte 102,15,107,255 // packssdw %xmm7,%xmm7 .byte 102,15,111,239 // movdqa %xmm7,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 .byte 102,15,235,253 // por %xmm5,%xmm7 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,89,238 // mulps %xmm6,%xmm5 .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 .byte 102,15,114,245,16 // pslld $0x10,%xmm5 .byte 102,15,114,229,16 // psrad $0x10,%xmm5 .byte 102,15,107,237 // packssdw %xmm5,%xmm5 .byte 102,15,111,221 // movdqa %xmm5,%xmm3 .byte 102,15,113,243,8 // psllw $0x8,%xmm3 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 .byte 102,15,235,235 // por %xmm3,%xmm5 .byte 15,89,117,232 // mulps -0x18(%ebp),%xmm6 .byte 102,15,91,222 // cvtps2dq %xmm6,%xmm3 .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,114,227,16 // psrad $0x10,%xmm3 .byte 102,15,107,219 // packssdw %xmm3,%xmm3 .byte 102,15,111,243 // movdqa %xmm3,%xmm6 .byte 102,15,113,246,8 // psllw $0x8,%xmm6 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 102,15,235,222 // por %xmm6,%xmm3 .byte 102,15,97,231 // punpcklwd %xmm7,%xmm4 .byte 102,15,97,235 // punpcklwd %xmm3,%xmm5 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 139,56 // mov (%eax),%edi .byte 139,119,4 // mov 0x4(%edi),%esi .byte 15,175,113,4 // imul 0x4(%ecx),%esi .byte 1,246 // add %esi,%esi .byte 3,55 // add (%edi),%esi .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 193,226,2 // shl $0x2,%edx .byte 133,255 // test %edi,%edi .byte 117,45 // jne 5a1f <_sk_store_u16_be_sse2+0x113> .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,15,98,221 // punpckldq %xmm5,%xmm3 .byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2) .byte 102,15,106,229 // punpckhdq %xmm5,%xmm4 .byte 243,15,127,100,86,16 // movdqu %xmm4,0x10(%esi,%edx,2) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,32 // add $0x20,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,98,245 // punpckldq %xmm5,%xmm6 .byte 102,15,214,52,86 // movq %xmm6,(%esi,%edx,2) .byte 131,255,1 // cmp $0x1,%edi .byte 116,216 // je 5a09 <_sk_store_u16_be_sse2+0xfd> .byte 102,15,23,116,86,8 // movhpd %xmm6,0x8(%esi,%edx,2) .byte 131,255,3 // cmp $0x3,%edi .byte 114,205 // jb 5a09 <_sk_store_u16_be_sse2+0xfd> .byte 102,15,106,229 // punpckhdq %xmm5,%xmm4 .byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2) .byte 235,193 // jmp 5a09 <_sk_store_u16_be_sse2+0xfd> HIDDEN _sk_load_f32_sse2 .globl _sk_load_f32_sse2 FUNCTION(_sk_load_f32_sse2) _sk_load_f32_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,57 // mov (%ecx),%edi .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 193,226,2 // shl $0x2,%edx .byte 3,22 // add (%esi),%edx .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi .byte 193,231,4 // shl $0x4,%edi .byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4 .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 133,255 // test %edi,%edi .byte 117,71 // jne 5abf <_sk_load_f32_sse2+0x77> .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2 .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 .byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 15,21,226 // unpckhps %xmm2,%xmm4 .byte 15,21,216 // unpckhps %xmm0,%xmm3 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 15,18,205 // movhlps %xmm5,%xmm1 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 15,18,220 // movhlps %xmm4,%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,16 // add $0x10,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 131,255,1 // cmp $0x1,%edi .byte 117,8 // jne 5acf <_sk_load_f32_sse2+0x87> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 235,184 // jmp 5a87 <_sk_load_f32_sse2+0x3f> .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2 .byte 131,255,3 // cmp $0x3,%edi .byte 114,7 // jb 5ae0 <_sk_load_f32_sse2+0x98> .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 .byte 235,167 // jmp 5a87 <_sk_load_f32_sse2+0x3f> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 235,162 // jmp 5a87 <_sk_load_f32_sse2+0x3f> HIDDEN _sk_load_f32_dst_sse2 .globl _sk_load_f32_dst_sse2 FUNCTION(_sk_load_f32_dst_sse2) _sk_load_f32_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,32 // sub $0x20,%esp .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,57 // mov (%ecx),%edi .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 193,226,2 // shl $0x2,%edx .byte 3,22 // add (%esi),%edx .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi .byte 193,231,4 // shl $0x4,%edi .byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6 .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 133,255 // test %edi,%edi .byte 117,97 // jne 5b81 <_sk_load_f32_dst_sse2+0x9c> .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7 .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 .byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 15,20,231 // unpcklps %xmm7,%xmm4 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 15,21,247 // unpckhps %xmm7,%xmm6 .byte 15,21,218 // unpckhps %xmm2,%xmm3 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 102,15,20,213 // unpcklpd %xmm5,%xmm2 .byte 15,18,236 // movhlps %xmm4,%xmm5 .byte 15,40,230 // movaps %xmm6,%xmm4 .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4 .byte 15,18,222 // movhlps %xmm6,%xmm3 .byte 102,15,41,81,16 // movapd %xmm2,0x10(%ecx) .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) .byte 102,15,41,97,48 // movapd %xmm4,0x30(%ecx) .byte 15,41,89,64 // movaps %xmm3,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2 .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,48 // add $0x30,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 131,255,1 // cmp $0x1,%edi .byte 117,8 // jne 5b91 <_sk_load_f32_dst_sse2+0xac> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 235,158 // jmp 5b2f <_sk_load_f32_dst_sse2+0x4a> .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7 .byte 131,255,3 // cmp $0x3,%edi .byte 114,7 // jb 5ba2 <_sk_load_f32_dst_sse2+0xbd> .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 .byte 235,141 // jmp 5b2f <_sk_load_f32_dst_sse2+0x4a> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 235,136 // jmp 5b2f <_sk_load_f32_dst_sse2+0x4a> HIDDEN _sk_store_f32_sse2 .globl _sk_store_f32_sse2 FUNCTION(_sk_store_f32_sse2) _sk_store_f32_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,25 // mov (%ecx),%ebx .byte 139,48 // mov (%eax),%esi .byte 139,86,4 // mov 0x4(%esi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 193,226,2 // shl $0x2,%edx .byte 3,22 // add (%esi),%edx .byte 141,52,157,0,0,0,0 // lea 0x0(,%ebx,4),%esi .byte 193,227,4 // shl $0x4,%ebx .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 102,15,20,244 // unpcklpd %xmm4,%xmm6 .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 102,15,17,52,19 // movupd %xmm6,(%ebx,%edx,1) .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,21,241 // unpckhps %xmm1,%xmm6 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,21,251 // unpckhps %xmm3,%xmm7 .byte 15,18,229 // movhlps %xmm5,%xmm4 .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5 .byte 133,255 // test %edi,%edi .byte 117,40 // jne 5c2d <_sk_store_f32_sse2+0x86> .byte 102,15,21,247 // unpckhpd %xmm7,%xmm6 .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4) .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4) .byte 102,15,17,116,178,48 // movupd %xmm6,0x30(%edx,%esi,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret .byte 131,255,1 // cmp $0x1,%edi .byte 116,232 // je 5c1a <_sk_store_f32_sse2+0x73> .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4) .byte 131,255,3 // cmp $0x3,%edi .byte 114,222 // jb 5c1a <_sk_store_f32_sse2+0x73> .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4) .byte 235,214 // jmp 5c1a <_sk_store_f32_sse2+0x73> HIDDEN _sk_clamp_x_sse2 .globl _sk_clamp_x_sse2 FUNCTION(_sk_clamp_x_sse2) _sk_clamp_x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,95,224 // maxps %xmm0,%xmm4 .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,254,232 // paddd %xmm0,%xmm5 .byte 15,93,229 // minps %xmm5,%xmm4 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clamp_y_sse2 .globl _sk_clamp_y_sse2 FUNCTION(_sk_clamp_y_sse2) _sk_clamp_y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,95,225 // maxps %xmm1,%xmm4 .byte 243,15,16,9 // movss (%ecx),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,254,233 // paddd %xmm1,%xmm5 .byte 15,93,229 // minps %xmm5,%xmm4 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_repeat_x_sse2 .globl _sk_repeat_x_sse2 FUNCTION(_sk_repeat_x_sse2) _sk_repeat_x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5cc1 <_sk_repeat_x_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 243,15,16,42 // movss (%edx),%xmm5 .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4 .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7 .byte 15,194,247,1 // cmpltps %xmm7,%xmm6 .byte 15,84,177,223,69,0,0 // andps 0x45df(%ecx),%xmm6 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,95,224 // maxps %xmm0,%xmm4 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,15,254,197 // paddd %xmm5,%xmm0 .byte 15,93,224 // minps %xmm0,%xmm4 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_repeat_y_sse2 .globl _sk_repeat_y_sse2 FUNCTION(_sk_repeat_y_sse2) _sk_repeat_y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5d27 <_sk_repeat_y_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 243,15,16,42 // movss (%edx),%xmm5 .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4 .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7 .byte 15,194,247,1 // cmpltps %xmm7,%xmm6 .byte 15,84,177,137,69,0,0 // andps 0x4589(%ecx),%xmm6 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,95,225 // maxps %xmm1,%xmm4 .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1 .byte 102,15,254,205 // paddd %xmm5,%xmm1 .byte 15,93,225 // minps %xmm1,%xmm4 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_mirror_x_sse2 .globl _sk_mirror_x_sse2 FUNCTION(_sk_mirror_x_sse2) _sk_mirror_x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5d8d <_sk_mirror_x_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 243,15,16,42 // movss (%edx),%xmm5 .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 243,15,89,177,179,74,0,0 // mulss 0x4ab3(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,194,247,1 // cmpltps %xmm7,%xmm6 .byte 15,84,177,51,69,0,0 // andps 0x4533(%ecx),%xmm6 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 243,15,88,237 // addss %xmm5,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,92,232 // subps %xmm0,%xmm5 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,95,197 // maxps %xmm5,%xmm0 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,254,236 // paddd %xmm4,%xmm5 .byte 15,93,197 // minps %xmm5,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_mirror_y_sse2 .globl _sk_mirror_y_sse2 FUNCTION(_sk_mirror_y_sse2) _sk_mirror_y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5e12 <_sk_mirror_y_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 243,15,16,42 // movss (%edx),%xmm5 .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 243,15,89,177,50,74,0,0 // mulss 0x4a32(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,194,247,1 // cmpltps %xmm7,%xmm6 .byte 15,84,177,190,68,0,0 // andps 0x44be(%ecx),%xmm6 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 243,15,88,237 // addss %xmm5,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,84,233 // andps %xmm1,%xmm5 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,95,205 // maxps %xmm5,%xmm1 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 .byte 102,15,254,236 // paddd %xmm4,%xmm5 .byte 15,93,205 // minps %xmm5,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clamp_x_1_sse2 .globl _sk_clamp_x_1_sse2 FUNCTION(_sk_clamp_x_1_sse2) _sk_clamp_x_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5e97 <_sk_clamp_x_1_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,95,224 // maxps %xmm0,%xmm4 .byte 15,93,160,73,68,0,0 // minps 0x4449(%eax),%xmm4 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_repeat_x_1_sse2 .globl _sk_repeat_x_1_sse2 FUNCTION(_sk_repeat_x_1_sse2) _sk_repeat_x_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5ec7 <_sk_repeat_x_1_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,194,236,1 // cmpltps %xmm4,%xmm5 .byte 15,84,168,41,68,0,0 // andps 0x4429(%eax),%xmm5 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_mirror_x_1_sse2 .globl _sk_mirror_x_1_sse2 FUNCTION(_sk_mirror_x_1_sse2) _sk_mirror_x_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 5f02 <_sk_mirror_x_1_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 15,40,161,254,67,0,0 // movaps 0x43fe(%ecx),%xmm4 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,40,169,14,68,0,0 // movaps 0x440e(%ecx),%xmm5 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,194,238,1 // cmpltps %xmm6,%xmm5 .byte 15,84,169,30,68,0,0 // andps 0x441e(%ecx),%xmm5 .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,88,246 // addps %xmm6,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,92,248 // subps %xmm0,%xmm7 .byte 15,84,199 // andps %xmm7,%xmm0 .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_luminance_to_alpha_sse2 .globl _sk_luminance_to_alpha_sse2 FUNCTION(_sk_luminance_to_alpha_sse2) _sk_luminance_to_alpha_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 232,0,0,0,0 // call 5f60 <_sk_luminance_to_alpha_sse2+0xe> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,89,128,208,67,0,0 // mulps 0x43d0(%eax),%xmm0 .byte 15,89,136,224,67,0,0 // mulps 0x43e0(%eax),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,89,152,240,67,0,0 // mulps 0x43f0(%eax),%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_translate_sse2 .globl _sk_matrix_translate_sse2 FUNCTION(_sk_matrix_translate_sse2) _sk_matrix_translate_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,33 // movss (%ecx),%xmm4 .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_scale_translate_sse2 .globl _sk_matrix_scale_translate_sse2 FUNCTION(_sk_matrix_scale_translate_sse2) _sk_matrix_scale_translate_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,97,8 // movss 0x8(%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 243,15,16,41 // movss (%ecx),%xmm5 .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_2x3_sse2 .globl _sk_matrix_2x3_sse2 FUNCTION(_sk_matrix_2x3_sse2) _sk_matrix_2x3_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,121,16 // movss 0x10(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,113,12 // movss 0xc(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,121,20 // movss 0x14(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_3x4_sse2 .globl _sk_matrix_3x4_sse2 FUNCTION(_sk_matrix_3x4_sse2) _sk_matrix_3x4_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,113,36 // movss 0x24(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 243,15,16,113,12 // movss 0xc(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 243,15,16,105,28 // movss 0x1c(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,113,40 // movss 0x28(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 243,15,16,113,32 // movss 0x20(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,242 // mulps %xmm2,%xmm6 .byte 243,15,16,81,44 // movss 0x2c(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 243,15,16,121,20 // movss 0x14(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_4x5_sse2 .globl _sk_matrix_4x5_sse2 FUNCTION(_sk_matrix_4x5_sse2) _sk_matrix_4x5_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 137,77,252 // mov %ecx,-0x4(%ebp) .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,33 // movss (%ecx),%xmm4 .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 243,15,16,113,48 // movss 0x30(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,121,64 // movss 0x40(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 243,15,16,121,32 // movss 0x20(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,113,52 // movss 0x34(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,121,68 // movss 0x44(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 243,15,16,121,36 // movss 0x24(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 243,15,16,113,20 // movss 0x14(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 243,15,16,113,56 // movss 0x38(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,121,72 // movss 0x48(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 243,15,16,121,40 // movss 0x28(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 243,15,16,121,8 // movss 0x8(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 243,15,16,113,60 // movss 0x3c(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 243,15,16,89,76 // movss 0x4c(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,88,243 // addps %xmm3,%xmm6 .byte 243,15,16,89,44 // movss 0x2c(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 .byte 15,88,222 // addps %xmm6,%xmm3 .byte 243,15,16,81,28 // movss 0x1c(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,218 // addps %xmm2,%xmm3 .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,215 // movaps %xmm7,%xmm2 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_4x3_sse2 .globl _sk_matrix_4x3_sse2 FUNCTION(_sk_matrix_4x3_sse2) _sk_matrix_4x3_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,81,16 // movss 0x10(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,89,32 // movss 0x20(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,81,20 // movss 0x14(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,89,36 // movss 0x24(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,89,24 // movss 0x18(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,15,16,113,40 // movss 0x28(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,88,222 // addps %xmm6,%xmm3 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,15,16,113,28 // movss 0x1c(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,121,44 // movss 0x2c(%ecx),%xmm7 .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,222 // addps %xmm6,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_matrix_perspective_sse2 .globl _sk_matrix_perspective_sse2 FUNCTION(_sk_matrix_perspective_sse2) _sk_matrix_perspective_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,88,245 // addps %xmm5,%xmm6 .byte 243,15,16,105,12 // movss 0xc(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 243,15,16,113,28 // movss 0x1c(%ecx),%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 243,15,16,73,32 // movss 0x20(%ecx),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 15,88,241 // addps %xmm1,%xmm6 .byte 243,15,16,73,24 // movss 0x18(%ecx),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,83,201 // rcpps %xmm1,%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_evenly_spaced_gradient_sse2 .globl _sk_evenly_spaced_gradient_sse2 FUNCTION(_sk_evenly_spaced_gradient_sse2) _sk_evenly_spaced_gradient_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,60 // sub $0x3c,%esp .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp) .byte 232,0,0,0,0 // call 63fd <_sk_evenly_spaced_gradient_sse2+0x12> .byte 90 // pop %edx .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 137,69,240 // mov %eax,-0x10(%ebp) .byte 139,9 // mov (%ecx),%ecx .byte 139,49 // mov (%ecx),%esi .byte 139,65,4 // mov 0x4(%ecx),%eax .byte 78 // dec %esi .byte 102,15,110,206 // movd %esi,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 102,15,111,146,99,63,0,0 // movdqa 0x3f63(%edx),%xmm2 .byte 102,15,219,209 // pand %xmm1,%xmm2 .byte 102,15,235,146,115,63,0,0 // por 0x3f73(%edx),%xmm2 .byte 102,15,114,209,16 // psrld $0x10,%xmm1 .byte 102,15,235,138,131,63,0,0 // por 0x3f83(%edx),%xmm1 .byte 15,88,138,147,63,0,0 // addps 0x3f93(%edx),%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,112,217,231 // pshufd $0xe7,%xmm1,%xmm3 .byte 102,15,126,223 // movd %xmm3,%edi .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3 .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,36,176 // movss (%eax,%esi,4),%xmm4 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,12,152 // movss (%eax,%ebx,4),%xmm1 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 139,65,20 // mov 0x14(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3 .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 139,65,8 // mov 0x8(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6 .byte 243,15,16,12,176 // movss (%eax,%esi,4),%xmm1 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 139,65,24 // mov 0x18(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3 .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 139,65,12 // mov 0xc(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 139,65,28 // mov 0x1c(%ecx),%eax .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7 .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3 .byte 15,20,223 // unpcklps %xmm7,%xmm3 .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7 .byte 243,15,16,44,152 // movss (%eax,%ebx,4),%xmm5 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 15,20,251 // unpcklps %xmm3,%xmm7 .byte 139,65,16 // mov 0x10(%ecx),%eax .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3 .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3 .byte 243,15,16,4,152 // movss (%eax,%ebx,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 139,65,32 // mov 0x20(%ecx),%eax .byte 243,15,16,4,184 // movss (%eax,%edi,4),%xmm0 .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0 .byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 15,20,197 // unpcklps %xmm5,%xmm0 .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 141,74,8 // lea 0x8(%edx),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 81 // push %ecx .byte 80 // push %eax .byte 255,82,4 // call *0x4(%edx) .byte 131,196,76 // add $0x4c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_gauss_a_to_rgba_sse2 .globl _sk_gauss_a_to_rgba_sse2 FUNCTION(_sk_gauss_a_to_rgba_sse2) _sk_gauss_a_to_rgba_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 65b3 <_sk_gauss_a_to_rgba_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,40,128,237,61,0,0 // movaps 0x3ded(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,128,253,61,0,0 // addps 0x3dfd(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,128,13,62,0,0 // addps 0x3e0d(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,128,29,62,0,0 // addps 0x3e1d(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,128,45,62,0,0 // addps 0x3e2d(%eax),%xmm0 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,17 // call *(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_gradient_sse2 .globl _sk_gradient_sse2 FUNCTION(_sk_gradient_sse2) _sk_gradient_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,60 // sub $0x3c,%esp .byte 232,0,0,0,0 // call 660e <_sk_gradient_sse2+0xe> .byte 95 // pop %edi .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 137,85,240 // mov %edx,-0x10(%ebp) .byte 139,9 // mov (%ecx),%ecx .byte 139,17 // mov (%ecx),%edx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,250,2 // cmp $0x2,%edx .byte 114,43 // jb 6650 <_sk_gradient_sse2+0x50> .byte 139,113,36 // mov 0x24(%ecx),%esi .byte 74 // dec %edx .byte 131,198,4 // add $0x4,%esi .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,40,151,226,61,0,0 // movaps 0x3de2(%edi),%xmm2 .byte 243,15,16,30 // movss (%esi),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,194,216,2 // cmpleps %xmm0,%xmm3 .byte 15,84,218 // andps %xmm2,%xmm3 .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 131,198,4 // add $0x4,%esi .byte 74 // dec %edx .byte 117,231 // jne 6637 <_sk_gradient_sse2+0x37> .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 139,65,4 // mov 0x4(%ecx),%eax .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1 .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3 .byte 243,15,16,36,144 // movss (%eax,%edx,4),%xmm4 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 139,65,20 // mov 0x14(%ecx),%eax .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1 .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6 .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp) .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 15,20,239 // unpcklps %xmm7,%xmm5 .byte 139,65,8 // mov 0x8(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3 .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp) .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 139,65,24 // mov 0x18(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3 .byte 243,15,16,36,144 // movss (%eax,%edx,4),%xmm4 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,231 // unpcklps %xmm7,%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp) .byte 139,65,12 // mov 0xc(%ecx),%eax .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2 .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 243,15,16,20,144 // movss (%eax,%edx,4),%xmm2 .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 139,65,28 // mov 0x1c(%ecx),%eax .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7 .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3 .byte 15,20,223 // unpcklps %xmm7,%xmm3 .byte 243,15,16,60,144 // movss (%eax,%edx,4),%xmm7 .byte 243,15,16,44,152 // movss (%eax,%ebx,4),%xmm5 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 15,20,251 // unpcklps %xmm3,%xmm7 .byte 139,65,16 // mov 0x10(%ecx),%eax .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3 .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3 .byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 139,65,32 // mov 0x20(%ecx),%eax .byte 243,15,16,44,184 // movss (%eax,%edi,4),%xmm5 .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5 .byte 243,15,16,36,152 // movss (%eax,%ebx,4),%xmm4 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 139,69,240 // mov -0x10(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,76 // add $0x4c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_evenly_spaced_2_stop_gradient_sse2 .globl _sk_evenly_spaced_2_stop_gradient_sse2 FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2) _sk_evenly_spaced_2_stop_gradient_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,1 // movss (%ecx),%xmm0 .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 243,15,16,81,16 // movss 0x10(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 243,15,16,81,20 // movss 0x14(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2 .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2 .byte 243,15,16,89,24 // movss 0x18(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3 .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3 .byte 243,15,16,105,28 // movss 0x1c(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_xy_to_unit_angle_sse2 .globl _sk_xy_to_unit_angle_sse2 FUNCTION(_sk_xy_to_unit_angle_sse2) _sk_xy_to_unit_angle_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 232,0,0,0,0 // call 684a <_sk_xy_to_unit_angle_sse2+0x18> .byte 88 // pop %eax .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,84,233 // andps %xmm1,%xmm5 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,84,226 // andps %xmm2,%xmm4 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,93,244 // minps %xmm4,%xmm6 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,95,252 // maxps %xmm4,%xmm7 .byte 15,94,247 // divps %xmm7,%xmm6 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,255 // mulps %xmm7,%xmm7 .byte 15,40,128,182,59,0,0 // movaps 0x3bb6(%eax),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,88,128,198,59,0,0 // addps 0x3bc6(%eax),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,88,128,214,59,0,0 // addps 0x3bd6(%eax),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,88,128,230,59,0,0 // addps 0x3be6(%eax),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,194,236,1 // cmpltps %xmm4,%xmm5 .byte 15,40,176,246,59,0,0 // movaps 0x3bf6(%eax),%xmm6 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,84,245 // andps %xmm5,%xmm6 .byte 15,85,232 // andnps %xmm0,%xmm5 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,86,238 // orps %xmm6,%xmm5 .byte 15,194,204,1 // cmpltps %xmm4,%xmm1 .byte 15,40,128,6,60,0,0 // movaps 0x3c06(%eax),%xmm0 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,84,193 // andps %xmm1,%xmm0 .byte 15,85,205 // andnps %xmm5,%xmm1 .byte 15,86,200 // orps %xmm0,%xmm1 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 .byte 15,40,168,22,60,0,0 // movaps 0x3c16(%eax),%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,85,193 // andnps %xmm1,%xmm0 .byte 15,86,197 // orps %xmm5,%xmm0 .byte 15,194,224,7 // cmpordps %xmm0,%xmm4 .byte 15,84,224 // andps %xmm0,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_xy_to_radius_sse2 .globl _sk_xy_to_radius_sse2 FUNCTION(_sk_xy_to_radius_sse2) _sk_xy_to_radius_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,81,196 // sqrtps %xmm4,%xmm0 .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,16 // call *(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_xy_to_2pt_conical_quadratic_max_sse2 .globl _sk_xy_to_2pt_conical_quadratic_max_sse2 FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_sse2) _sk_xy_to_2pt_conical_quadratic_max_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,105,40 // movss 0x28(%ecx),%xmm5 .byte 243,15,16,97,44 // movss 0x2c(%ecx),%xmm4 .byte 243,15,89,229 // mulss %xmm5,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 232,0,0,0,0 // call 6967 <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31> .byte 90 // pop %edx .byte 243,15,89,237 // mulss %xmm5,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,89,162,9,59,0,0 // mulps 0x3b09(%edx),%xmm4 .byte 15,89,130,25,59,0,0 // mulps 0x3b19(%edx),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,81,237 // sqrtps %xmm5,%xmm5 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,87,162,41,59,0,0 // xorps 0x3b29(%edx),%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,170,57,59,0,0 // mulps 0x3b39(%edx),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,95,196 // maxps %xmm4,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_xy_to_2pt_conical_quadratic_min_sse2 .globl _sk_xy_to_2pt_conical_quadratic_min_sse2 FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_sse2) _sk_xy_to_2pt_conical_quadratic_min_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 243,15,16,105,40 // movss 0x28(%ecx),%xmm5 .byte 243,15,16,97,44 // movss 0x2c(%ecx),%xmm4 .byte 243,15,89,229 // mulss %xmm5,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 232,0,0,0,0 // call 6a05 <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31> .byte 90 // pop %edx .byte 243,15,89,237 // mulss %xmm5,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 15,89,162,171,58,0,0 // mulps 0x3aab(%edx),%xmm4 .byte 15,89,130,187,58,0,0 // mulps 0x3abb(%edx),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,81,237 // sqrtps %xmm5,%xmm5 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,87,162,203,58,0,0 // xorps 0x3acb(%edx),%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,170,219,58,0,0 // mulps 0x3adb(%edx),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,93,196 // minps %xmm4,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_xy_to_2pt_conical_linear_sse2 .globl _sk_xy_to_2pt_conical_linear_sse2 FUNCTION(_sk_xy_to_2pt_conical_linear_sse2) _sk_xy_to_2pt_conical_linear_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 232,0,0,0,0 // call 6a7d <_sk_xy_to_2pt_conical_linear_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 243,15,16,98,40 // movss 0x28(%edx),%xmm4 .byte 243,15,16,106,44 // movss 0x2c(%edx),%xmm5 .byte 243,15,89,236 // mulss %xmm4,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,89,169,115,58,0,0 // mulps 0x3a73(%ecx),%xmm5 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 243,15,89,228 // mulss %xmm4,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,87,129,131,58,0,0 // xorps 0x3a83(%ecx),%xmm0 .byte 15,94,197 // divps %xmm5,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_mask_2pt_conical_degenerates_sse2 .globl _sk_mask_2pt_conical_degenerates_sse2 FUNCTION(_sk_mask_2pt_conical_degenerates_sse2) _sk_mask_2pt_conical_degenerates_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 243,15,16,98,40 // movss 0x28(%edx),%xmm4 .byte 243,15,16,106,44 // movss 0x2c(%edx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,194,244,7 // cmpordps %xmm4,%xmm6 .byte 15,194,229,2 // cmpleps %xmm5,%xmm4 .byte 15,84,230 // andps %xmm6,%xmm4 .byte 15,17,34 // movups %xmm4,(%edx) .byte 141,81,8 // lea 0x8(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 80 // push %eax .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_apply_vector_mask_sse2 .globl _sk_apply_vector_mask_sse2 FUNCTION(_sk_apply_vector_mask_sse2) _sk_apply_vector_mask_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 15,16,33 // movups (%ecx),%xmm4 .byte 15,84,196 // andps %xmm4,%xmm0 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 15,84,212 // andps %xmm4,%xmm2 .byte 15,84,220 // andps %xmm4,%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_save_xy_sse2 .globl _sk_save_xy_sse2 FUNCTION(_sk_save_xy_sse2) _sk_save_xy_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 232,0,0,0,0 // call 6b5a <_sk_save_xy_sse2+0x12> .byte 88 // pop %eax .byte 15,40,160,182,57,0,0 // movaps 0x39b6(%eax),%xmm4 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,194,254,1 // cmpltps %xmm6,%xmm7 .byte 15,40,144,198,57,0,0 // movaps 0x39c6(%eax),%xmm2 .byte 15,84,250 // andps %xmm2,%xmm7 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,92,238 // subps %xmm6,%xmm5 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,40,252 // movaps %xmm4,%xmm7 .byte 15,194,254,1 // cmpltps %xmm6,%xmm7 .byte 15,84,250 // andps %xmm2,%xmm7 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,92,230 // subps %xmm6,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx .byte 15,17,1 // movups %xmm0,(%ecx) .byte 15,17,73,32 // movups %xmm1,0x20(%ecx) .byte 15,17,105,64 // movups %xmm5,0x40(%ecx) .byte 15,17,97,96 // movups %xmm4,0x60(%ecx) .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) .byte 131,196,40 // add $0x28,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_accumulate_sse2 .globl _sk_accumulate_sse2 FUNCTION(_sk_accumulate_sse2) _sk_accumulate_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx .byte 15,16,162,128,0,0,0 // movups 0x80(%edx),%xmm4 .byte 15,16,170,160,0,0,0 // movups 0xa0(%edx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,96,16 // addps 0x10(%eax),%xmm4 .byte 15,41,96,16 // movaps %xmm4,0x10(%eax) .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,88,96,32 // addps 0x20(%eax),%xmm4 .byte 15,41,96,32 // movaps %xmm4,0x20(%eax) .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 15,88,96,48 // addps 0x30(%eax),%xmm4 .byte 15,41,96,48 // movaps %xmm4,0x30(%eax) .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,88,104,64 // addps 0x40(%eax),%xmm5 .byte 15,41,104,64 // movaps %xmm5,0x40(%eax) .byte 141,81,8 // lea 0x8(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx .byte 80 // push %eax .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,24 // add $0x18,%esp .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bilinear_nx_sse2 .globl _sk_bilinear_nx_sse2 FUNCTION(_sk_bilinear_nx_sse2) _sk_bilinear_nx_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6c3c <_sk_bilinear_nx_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,102,64 // movups 0x40(%esi),%xmm4 .byte 15,88,128,244,56,0,0 // addps 0x38f4(%eax),%xmm0 .byte 15,40,168,4,57,0,0 // movaps 0x3904(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bilinear_px_sse2 .globl _sk_bilinear_px_sse2 FUNCTION(_sk_bilinear_px_sse2) _sk_bilinear_px_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6c7f <_sk_bilinear_px_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,102,64 // movups 0x40(%esi),%xmm4 .byte 15,88,128,209,56,0,0 // addps 0x38d1(%eax),%xmm0 .byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bilinear_ny_sse2 .globl _sk_bilinear_ny_sse2 FUNCTION(_sk_bilinear_ny_sse2) _sk_bilinear_ny_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6cb8 <_sk_bilinear_ny_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,32 // movups 0x20(%esi),%xmm1 .byte 15,16,102,96 // movups 0x60(%esi),%xmm4 .byte 15,88,136,168,56,0,0 // addps 0x38a8(%eax),%xmm1 .byte 15,40,168,184,56,0,0 // movaps 0x38b8(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bilinear_py_sse2 .globl _sk_bilinear_py_sse2 FUNCTION(_sk_bilinear_py_sse2) _sk_bilinear_py_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6cfc <_sk_bilinear_py_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,32 // movups 0x20(%esi),%xmm1 .byte 15,16,102,96 // movups 0x60(%esi),%xmm4 .byte 15,88,136,132,56,0,0 // addps 0x3884(%eax),%xmm1 .byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_n3x_sse2 .globl _sk_bicubic_n3x_sse2 FUNCTION(_sk_bicubic_n3x_sse2) _sk_bicubic_n3x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6d36 <_sk_bicubic_n3x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,102,64 // movups 0x40(%esi),%xmm4 .byte 15,88,128,90,56,0,0 // addps 0x385a(%eax),%xmm0 .byte 15,40,168,106,56,0,0 // movaps 0x386a(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 .byte 15,89,168,122,56,0,0 // mulps 0x387a(%eax),%xmm5 .byte 15,88,168,138,56,0,0 // addps 0x388a(%eax),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_n1x_sse2 .globl _sk_bicubic_n1x_sse2 FUNCTION(_sk_bicubic_n1x_sse2) _sk_bicubic_n1x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6d90 <_sk_bicubic_n1x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,102,64 // movups 0x40(%esi),%xmm4 .byte 15,88,128,64,56,0,0 // addps 0x3840(%eax),%xmm0 .byte 15,40,168,80,56,0,0 // movaps 0x3850(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,160,96,56,0,0 // movaps 0x3860(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,160,112,56,0,0 // addps 0x3870(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,160,128,56,0,0 // addps 0x3880(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,160,144,56,0,0 // addps 0x3890(%eax),%xmm4 .byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_p1x_sse2 .globl _sk_bicubic_p1x_sse2 FUNCTION(_sk_bicubic_p1x_sse2) _sk_bicubic_p1x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6df8 <_sk_bicubic_p1x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,40,160,56,56,0,0 // movaps 0x3838(%eax),%xmm4 .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,110,64 // movups 0x40(%esi),%xmm5 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,40,176,72,56,0,0 // movaps 0x3848(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,176,88,56,0,0 // addps 0x3858(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,176,104,56,0,0 // addps 0x3868(%eax),%xmm6 .byte 15,17,182,128,0,0,0 // movups %xmm6,0x80(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_p3x_sse2 .globl _sk_bicubic_p3x_sse2 FUNCTION(_sk_bicubic_p3x_sse2) _sk_bicubic_p3x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6e55 <_sk_bicubic_p3x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,102,64 // movups 0x40(%esi),%xmm4 .byte 15,88,128,27,56,0,0 // addps 0x381b(%eax),%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 .byte 15,89,160,43,56,0,0 // mulps 0x382b(%eax),%xmm4 .byte 15,88,160,59,56,0,0 // addps 0x383b(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_n3y_sse2 .globl _sk_bicubic_n3y_sse2 FUNCTION(_sk_bicubic_n3y_sse2) _sk_bicubic_n3y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6ea5 <_sk_bicubic_n3y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,32 // movups 0x20(%esi),%xmm1 .byte 15,16,102,96 // movups 0x60(%esi),%xmm4 .byte 15,88,136,251,55,0,0 // addps 0x37fb(%eax),%xmm1 .byte 15,40,168,11,56,0,0 // movaps 0x380b(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 .byte 15,89,168,27,56,0,0 // mulps 0x381b(%eax),%xmm5 .byte 15,88,168,43,56,0,0 // addps 0x382b(%eax),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_n1y_sse2 .globl _sk_bicubic_n1y_sse2 FUNCTION(_sk_bicubic_n1y_sse2) _sk_bicubic_n1y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6f00 <_sk_bicubic_n1y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,32 // movups 0x20(%esi),%xmm1 .byte 15,16,102,96 // movups 0x60(%esi),%xmm4 .byte 15,88,136,224,55,0,0 // addps 0x37e0(%eax),%xmm1 .byte 15,40,168,240,55,0,0 // movaps 0x37f0(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,160,0,56,0,0 // movaps 0x3800(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,160,16,56,0,0 // addps 0x3810(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,160,32,56,0,0 // addps 0x3820(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,88,160,48,56,0,0 // addps 0x3830(%eax),%xmm4 .byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_p1y_sse2 .globl _sk_bicubic_p1y_sse2 FUNCTION(_sk_bicubic_p1y_sse2) _sk_bicubic_p1y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6f69 <_sk_bicubic_p1y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,40,160,215,55,0,0 // movaps 0x37d7(%eax),%xmm4 .byte 15,16,78,32 // movups 0x20(%esi),%xmm1 .byte 15,16,110,96 // movups 0x60(%esi),%xmm5 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,40,176,231,55,0,0 // movaps 0x37e7(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,176,247,55,0,0 // addps 0x37f7(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,176,7,56,0,0 // addps 0x3807(%eax),%xmm6 .byte 15,17,182,160,0,0,0 // movups %xmm6,0xa0(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_bicubic_p3y_sse2 .globl _sk_bicubic_p3y_sse2 FUNCTION(_sk_bicubic_p3y_sse2) _sk_bicubic_p3y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax .byte 232,0,0,0,0 // call 6fc7 <_sk_bicubic_p3y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,32 // movups 0x20(%esi),%xmm1 .byte 15,16,102,96 // movups 0x60(%esi),%xmm4 .byte 15,88,136,185,55,0,0 // addps 0x37b9(%eax),%xmm1 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 .byte 15,89,160,201,55,0,0 // mulps 0x37c9(%eax),%xmm4 .byte 15,88,160,217,55,0,0 // addps 0x37d9(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 81 // push %ecx .byte 255,82,4 // call *0x4(%edx) .byte 131,196,20 // add $0x14,%esp .byte 94 // pop %esi .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_callback_sse2 .globl _sk_callback_sse2 FUNCTION(_sk_callback_sse2) _sk_callback_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp .byte 139,117,12 // mov 0xc(%ebp),%esi .byte 139,125,8 // mov 0x8(%ebp),%edi .byte 139,71,8 // mov 0x8(%edi),%eax .byte 139,30 // mov (%esi),%ebx .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,21,193 // unpckhps %xmm1,%xmm0 .byte 15,21,211 // unpckhps %xmm3,%xmm2 .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1 .byte 15,18,236 // movhlps %xmm4,%xmm5 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3 .byte 102,15,17,75,4 // movupd %xmm1,0x4(%ebx) .byte 15,18,208 // movhlps %xmm0,%xmm2 .byte 15,17,107,20 // movups %xmm5,0x14(%ebx) .byte 102,15,17,91,36 // movupd %xmm3,0x24(%ebx) .byte 15,17,83,52 // movups %xmm2,0x34(%ebx) .byte 133,192 // test %eax,%eax .byte 185,4,0,0,0 // mov $0x4,%ecx .byte 15,69,200 // cmovne %eax,%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx .byte 83 // push %ebx .byte 255,19 // call *(%ebx) .byte 131,196,16 // add $0x10,%esp .byte 139,131,132,0,0,0 // mov 0x84(%ebx),%eax .byte 15,16,32 // movups (%eax),%xmm4 .byte 15,16,64,16 // movups 0x10(%eax),%xmm0 .byte 15,16,88,32 // movups 0x20(%eax),%xmm3 .byte 15,16,80,48 // movups 0x30(%eax),%xmm2 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 15,21,224 // unpckhps %xmm0,%xmm4 .byte 15,21,218 // unpckhps %xmm2,%xmm3 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 15,18,205 // movhlps %xmm5,%xmm1 .byte 15,40,212 // movaps %xmm4,%xmm2 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 15,18,220 // movhlps %xmm4,%xmm3 .byte 141,70,8 // lea 0x8(%esi),%eax .byte 131,236,8 // sub $0x8,%esp .byte 80 // push %eax .byte 87 // push %edi .byte 255,86,4 // call *0x4(%esi) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clut_3D_sse2 .globl _sk_clut_3D_sse2 FUNCTION(_sk_clut_3D_sse2) _sk_clut_3D_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 129,236,44,1,0,0 // sub $0x12c,%esp .byte 15,41,157,200,254,255,255 // movaps %xmm3,-0x138(%ebp) .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 137,141,4,255,255,255 // mov %ecx,-0xfc(%ebp) .byte 139,8 // mov (%eax),%ecx .byte 139,81,12 // mov 0xc(%ecx),%edx .byte 141,114,255 // lea -0x1(%edx),%esi .byte 102,15,110,198 // movd %esi,%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 102,15,110,194 // movd %edx,%xmm0 .byte 102,15,112,240,0 // pshufd $0x0,%xmm0,%xmm6 .byte 102,15,127,117,136 // movdqa %xmm6,-0x78(%ebp) .byte 139,81,8 // mov 0x8(%ecx),%edx .byte 141,114,255 // lea -0x1(%edx),%esi .byte 102,15,110,214 // movd %esi,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp) .byte 243,15,91,234 // cvttps2dq %xmm2,%xmm5 .byte 102,15,127,173,8,255,255,255 // movdqa %xmm5,-0xf8(%ebp) .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,244,206 // pmuludq %xmm6,%xmm1 .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2 .byte 102,15,112,205,245 // pshufd $0xf5,%xmm5,%xmm1 .byte 102,15,244,206 // pmuludq %xmm6,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,209 // punpckldq %xmm1,%xmm2 .byte 102,15,127,149,24,255,255,255 // movdqa %xmm2,-0xe8(%ebp) .byte 102,15,110,202 // movd %edx,%xmm1 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 139,81,4 // mov 0x4(%ecx),%edx .byte 74 // dec %edx .byte 102,15,110,194 // movd %edx,%xmm0 .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) .byte 102,15,112,217,0 // pshufd $0x0,%xmm1,%xmm3 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,127,69,152 // movdqa %xmm0,-0x68(%ebp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,15,112,233,232 // pshufd $0xe8,%xmm1,%xmm5 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0 .byte 102,15,127,133,120,255,255,255 // movdqa %xmm0,-0x88(%ebp) .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,233 // punpckldq %xmm1,%xmm5 .byte 102,15,127,173,104,255,255,255 // movdqa %xmm5,-0x98(%ebp) .byte 232,0,0,0,0 // call 71bb <_sk_clut_3D_sse2+0xff> .byte 90 // pop %edx .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0 .byte 102,15,127,133,232,254,255,255 // movdqa %xmm0,-0x118(%ebp) .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,41,181,216,254,255,255 // movaps %xmm6,-0x128(%ebp) .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,254,202 // paddd %xmm2,%xmm1 .byte 102,15,111,130,5,54,0,0 // movdqa 0x3605(%edx),%xmm0 .byte 102,15,127,133,88,255,255,255 // movdqa %xmm0,-0xa8(%ebp) .byte 102,15,112,225,245 // pshufd $0xf5,%xmm1,%xmm4 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,244,224 // pmuludq %xmm0,%xmm4 .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4 .byte 102,15,98,204 // punpckldq %xmm4,%xmm1 .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4 .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,112,225,231 // pshufd $0xe7,%xmm1,%xmm4 .byte 102,15,126,227 // movd %xmm4,%ebx .byte 139,9 // mov (%ecx),%ecx .byte 243,15,16,36,153 // movss (%ecx,%ebx,4),%xmm4 .byte 243,15,16,60,177 // movss (%ecx,%esi,4),%xmm7 .byte 15,20,252 // unpcklps %xmm4,%xmm7 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,4,177 // movss (%ecx,%esi,4),%xmm0 .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp) .byte 102,15,111,130,21,54,0,0 // movdqa 0x3615(%edx),%xmm0 .byte 102,15,127,133,72,255,255,255 // movdqa %xmm0,-0xb8(%ebp) .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,254,224 // paddd %xmm0,%xmm4 .byte 102,15,112,252,229 // pshufd $0xe5,%xmm4,%xmm7 .byte 102,15,126,254 // movd %xmm7,%esi .byte 102,15,112,252,78 // pshufd $0x4e,%xmm4,%xmm7 .byte 102,15,126,255 // movd %xmm7,%edi .byte 102,15,126,227 // movd %xmm4,%ebx .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4 .byte 243,15,16,4,177 // movss (%ecx,%esi,4),%xmm0 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 243,15,16,60,153 // movss (%ecx,%ebx,4),%xmm7 .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4 .byte 15,20,252 // unpcklps %xmm4,%xmm7 .byte 15,20,248 // unpcklps %xmm0,%xmm7 .byte 102,15,111,130,37,54,0,0 // movdqa 0x3625(%edx),%xmm0 .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp) .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,153 // movss (%ecx,%ebx,4),%xmm0 .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 243,15,16,44,185 // movss (%ecx,%edi,4),%xmm5 .byte 243,15,16,4,177 // movss (%ecx,%esi,4),%xmm0 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,40,130,245,53,0,0 // movaps 0x35f5(%edx),%xmm0 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp) .byte 15,40,141,56,255,255,255 // movaps -0xc8(%ebp),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,41,141,40,255,255,255 // movaps %xmm1,-0xd8(%ebp) .byte 15,88,69,200 // addps -0x38(%ebp),%xmm0 .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0 .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,112,192,245 // pshufd $0xf5,%xmm0,%xmm0 .byte 102,15,244,133,120,255,255,255 // pmuludq -0x88(%ebp),%xmm0 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,216 // punpckldq %xmm0,%xmm3 .byte 102,15,127,157,120,255,255,255 // movdqa %xmm3,-0x88(%ebp) .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,112,218,245 // pshufd $0xf5,%xmm2,%xmm3 .byte 102,15,111,141,88,255,255,255 // movdqa -0xa8(%ebp),%xmm1 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0 .byte 102,15,244,217 // pmuludq %xmm1,%xmm3 .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2 .byte 102,15,98,194 // punpckldq %xmm2,%xmm0 .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1 .byte 243,15,16,20,145 // movss (%ecx,%edx,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,254,149,72,255,255,255 // paddd -0xb8(%ebp),%xmm2 .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 243,15,16,20,185 // movss (%ecx,%edi,4),%xmm2 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2 .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 102,15,254,69,216 // paddd -0x28(%ebp),%xmm0 .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4 .byte 102,15,126,226 // movd %xmm4,%edx .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0 .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 243,15,16,28,177 // movss (%ecx,%esi,4),%xmm3 .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 15,20,220 // unpcklps %xmm4,%xmm3 .byte 15,91,101,152 // cvtdq2ps -0x68(%ebp),%xmm4 .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) .byte 15,40,101,168 // movaps -0x58(%ebp),%xmm4 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp) .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp) .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 243,15,91,141,40,255,255,255 // cvttps2dq -0xd8(%ebp),%xmm1 .byte 102,15,112,225,245 // pshufd $0xf5,%xmm1,%xmm4 .byte 102,15,111,69,136 // movdqa -0x78(%ebp),%xmm0 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,244,224 // pmuludq %xmm0,%xmm4 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,15,112,204,232 // pshufd $0xe8,%xmm4,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,127,69,136 // movdqa %xmm0,-0x78(%ebp) .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,254,189,232,254,255,255 // paddd -0x118(%ebp),%xmm7 .byte 102,15,111,207 // movdqa %xmm7,%xmm1 .byte 102,15,254,141,104,255,255,255 // paddd -0x98(%ebp),%xmm1 .byte 102,15,112,225,245 // pshufd $0xf5,%xmm1,%xmm4 .byte 102,15,111,133,88,255,255,255 // movdqa -0xa8(%ebp),%xmm0 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,233,232 // pshufd $0xe8,%xmm1,%xmm5 .byte 102,15,244,224 // pmuludq %xmm0,%xmm4 .byte 102,15,112,204,232 // pshufd $0xe8,%xmm4,%xmm1 .byte 102,15,98,233 // punpckldq %xmm1,%xmm5 .byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,205,78 // pshufd $0x4e,%xmm5,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,205,231 // pshufd $0xe7,%xmm5,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1 .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 102,15,126,232 // movd %xmm5,%eax .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1 .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,41,141,40,255,255,255 // movaps %xmm1,-0xd8(%ebp) .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,15,111,149,72,255,255,255 // movdqa -0xb8(%ebp),%xmm2 .byte 102,15,254,226 // paddd %xmm2,%xmm4 .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4 .byte 102,15,126,231 // movd %xmm4,%edi .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 102,15,254,109,216 // paddd -0x28(%ebp),%xmm5 .byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,205,78 // pshufd $0x4e,%xmm5,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,112,205,231 // pshufd $0xe7,%xmm5,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 243,15,16,44,177 // movss (%ecx,%esi,4),%xmm5 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 102,15,254,189,120,255,255,255 // paddd -0x88(%ebp),%xmm7 .byte 102,15,112,207,245 // pshufd $0xf5,%xmm7,%xmm1 .byte 102,15,244,248 // pmuludq %xmm0,%xmm7 .byte 102,15,112,255,232 // pshufd $0xe8,%xmm7,%xmm7 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,249 // punpckldq %xmm1,%xmm7 .byte 102,15,112,207,229 // pshufd $0xe5,%xmm7,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,207,78 // pshufd $0x4e,%xmm7,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,207,231 // pshufd $0xe7,%xmm7,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 102,15,111,207 // movdqa %xmm7,%xmm1 .byte 102,15,254,202 // paddd %xmm2,%xmm1 .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 102,15,254,125,216 // paddd -0x28(%ebp),%xmm7 .byte 102,15,112,207,229 // pshufd $0xe5,%xmm7,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,207,78 // pshufd $0x4e,%xmm7,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,126,254 // movd %xmm7,%esi .byte 102,15,112,207,231 // pshufd $0xe7,%xmm7,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 243,15,16,60,177 // movss (%ecx,%esi,4),%xmm7 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 15,20,254 // unpcklps %xmm6,%xmm7 .byte 15,40,181,40,255,255,255 // movaps -0xd8(%ebp),%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,253 // addps %xmm5,%xmm7 .byte 15,91,141,8,255,255,255 // cvtdq2ps -0xf8(%ebp),%xmm1 .byte 15,40,165,56,255,255,255 // movaps -0xc8(%ebp),%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,41,165,56,255,255,255 // movaps %xmm4,-0xc8(%ebp) .byte 15,40,77,152 // movaps -0x68(%ebp),%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp) .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0 .byte 15,92,208 // subps %xmm0,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp) .byte 15,92,251 // subps %xmm3,%xmm7 .byte 15,89,252 // mulps %xmm4,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 .byte 15,41,189,8,255,255,255 // movaps %xmm7,-0xf8(%ebp) .byte 243,15,91,77,184 // cvttps2dq -0x48(%ebp),%xmm1 .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp) .byte 102,15,111,133,24,255,255,255 // movdqa -0xe8(%ebp),%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,111,141,104,255,255,255 // movdqa -0x98(%ebp),%xmm1 .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,111,240 // movdqa %xmm0,%xmm6 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 .byte 102,15,111,133,88,255,255,255 // movdqa -0xa8(%ebp),%xmm0 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3 .byte 102,15,244,208 // pmuludq %xmm0,%xmm2 .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,203,231 // pshufd $0xe7,%xmm3,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1 .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,60,129 // movss (%ecx,%eax,4),%xmm7 .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 .byte 15,20,252 // unpcklps %xmm4,%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,111,133,72,255,255,255 // movdqa -0xb8(%ebp),%xmm0 .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4 .byte 102,15,126,226 // movd %xmm4,%edx .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 243,15,16,20,185 // movss (%ecx,%edi,4),%xmm2 .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2 .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 102,15,254,93,216 // paddd -0x28(%ebp),%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,15,126,226 // movd %xmm4,%edx .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 .byte 102,15,126,223 // movd %xmm3,%edi .byte 243,15,16,28,185 // movss (%ecx,%edi,4),%xmm3 .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 243,15,16,44,177 // movss (%ecx,%esi,4),%xmm5 .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 102,15,111,222 // movdqa %xmm6,%xmm3 .byte 102,15,254,157,120,255,255,255 // paddd -0x88(%ebp),%xmm3 .byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4 .byte 102,15,111,141,88,255,255,255 // movdqa -0xa8(%ebp),%xmm1 .byte 102,15,244,217 // pmuludq %xmm1,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,225 // pmuludq %xmm1,%xmm4 .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4 .byte 102,15,98,220 // punpckldq %xmm4,%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,15,126,226 // movd %xmm4,%edx .byte 102,15,112,227,231 // pshufd $0xe7,%xmm3,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4 .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1 .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,254,224 // paddd %xmm0,%xmm4 .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6 .byte 102,15,126,242 // movd %xmm6,%edx .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4 .byte 102,15,126,231 // movd %xmm4,%edi .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4 .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 243,15,16,52,177 // movss (%ecx,%esi,4),%xmm6 .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 102,15,254,93,216 // paddd -0x28(%ebp),%xmm3 .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0 .byte 102,15,126,194 // movd %xmm0,%edx .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0 .byte 243,15,16,28,129 // movss (%ecx,%eax,4),%xmm3 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4 .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,41,141,24,255,255,255 // movaps %xmm1,-0xe8(%ebp) .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,242 // addps %xmm2,%xmm6 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,229 // addps %xmm5,%xmm4 .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1 .byte 102,15,254,77,184 // paddd -0x48(%ebp),%xmm1 .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp) .byte 102,15,111,133,104,255,255,255 // movdqa -0x98(%ebp),%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,189,88,255,255,255 // movdqa -0xa8(%ebp),%xmm7 .byte 102,15,244,199 // pmuludq %xmm7,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,207 // pmuludq %xmm7,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1 .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,28,129 // movss (%ecx,%eax,4),%xmm3 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,41,157,104,255,255,255 // movaps %xmm3,-0x98(%ebp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,173,72,255,255,255 // movdqa -0xb8(%ebp),%xmm5 .byte 102,15,254,205 // paddd %xmm5,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1 .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,15,16,28,177 // movss (%ecx,%esi,4),%xmm3 .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 102,15,254,69,216 // paddd -0x28(%ebp),%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0 .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 243,15,16,28,177 // movss (%ecx,%esi,4),%xmm3 .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1 .byte 102,15,254,141,120,255,255,255 // paddd -0x88(%ebp),%xmm1 .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0 .byte 102,15,244,207 // pmuludq %xmm7,%xmm1 .byte 102,15,244,199 // pmuludq %xmm7,%xmm0 .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,194 // movd %xmm0,%edx .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 243,15,16,4,177 // movss (%ecx,%esi,4),%xmm0 .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0 .byte 243,15,16,60,145 // movss (%ecx,%edx,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,15,254,234 // paddd %xmm2,%xmm5 .byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,205,78 // pshufd $0x4e,%xmm5,%xmm1 .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,112,205,231 // pshufd $0xe7,%xmm5,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1 .byte 243,15,16,60,129 // movss (%ecx,%eax,4),%xmm7 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1 .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 102,15,254,85,216 // paddd -0x28(%ebp),%xmm2 .byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5 .byte 102,15,126,234 // movd %xmm5,%edx .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 243,15,16,20,185 // movss (%ecx,%edi,4),%xmm2 .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2 .byte 243,15,16,60,145 // movss (%ecx,%edx,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,40,189,104,255,255,255 // movaps -0x98(%ebp),%xmm7 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,40,173,24,255,255,255 // movaps -0xe8(%ebp),%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,92,206 // subps %xmm6,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,88,206 // addps %xmm6,%xmm1 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,91,157,232,254,255,255 // cvtdq2ps -0x118(%ebp),%xmm3 .byte 15,40,165,216,254,255,255 // movaps -0x128(%ebp),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,195 // addps %xmm3,%xmm0 .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,40,157,8,255,255,255 // movaps -0xf8(%ebp),%xmm3 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 141,74,8 // lea 0x8(%edx),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,157,200,254,255,255 // movaps -0x138(%ebp),%xmm3 .byte 81 // push %ecx .byte 80 // push %eax .byte 255,82,4 // call *0x4(%edx) .byte 129,196,60,1,0,0 // add $0x13c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret HIDDEN _sk_clut_4D_sse2 .globl _sk_clut_4D_sse2 FUNCTION(_sk_clut_4D_sse2) _sk_clut_4D_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi .byte 129,236,124,1,0,0 // sub $0x17c,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 141,72,4 // lea 0x4(%eax),%ecx .byte 137,141,212,254,255,255 // mov %ecx,-0x12c(%ebp) .byte 139,16 // mov (%eax),%edx .byte 139,74,16 // mov 0x10(%edx),%ecx .byte 141,113,255 // lea -0x1(%ecx),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 102,15,110,217 // movd %ecx,%xmm3 .byte 102,15,112,251,0 // pshufd $0x0,%xmm3,%xmm7 .byte 102,15,127,189,248,254,255,255 // movdqa %xmm7,-0x108(%ebp) .byte 139,74,12 // mov 0xc(%edx),%ecx .byte 141,113,255 // lea -0x1(%ecx),%esi .byte 102,15,110,230 // movd %esi,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,89,226 // mulps %xmm2,%xmm4 .byte 15,41,165,232,254,255,255 // movaps %xmm4,-0x118(%ebp) .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6 .byte 102,15,127,181,216,254,255,255 // movdqa %xmm6,-0x128(%ebp) .byte 102,15,111,214 // movdqa %xmm6,%xmm2 .byte 102,15,244,215 // pmuludq %xmm7,%xmm2 .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4 .byte 102,15,112,214,245 // pshufd $0xf5,%xmm6,%xmm2 .byte 102,15,244,215 // pmuludq %xmm7,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,226 // punpckldq %xmm2,%xmm4 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,127,181,56,255,255,255 // movdqa %xmm6,-0xc8(%ebp) .byte 102,15,110,209 // movd %ecx,%xmm2 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,98,211 // punpckldq %xmm3,%xmm2 .byte 139,74,8 // mov 0x8(%edx),%ecx .byte 141,113,255 // lea -0x1(%ecx),%esi .byte 102,15,110,222 // movd %esi,%xmm3 .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,41,157,40,255,255,255 // movaps %xmm3,-0xd8(%ebp) .byte 102,15,112,250,0 // pshufd $0x0,%xmm2,%xmm7 .byte 102,15,127,189,104,255,255,255 // movdqa %xmm7,-0x98(%ebp) .byte 243,15,91,227 // cvttps2dq %xmm3,%xmm4 .byte 102,15,127,165,8,255,255,255 // movdqa %xmm4,-0xf8(%ebp) .byte 102,15,111,204 // movdqa %xmm4,%xmm1 .byte 102,15,244,207 // pmuludq %xmm7,%xmm1 .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3 .byte 102,15,112,204,245 // pshufd $0xf5,%xmm4,%xmm1 .byte 102,15,112,231,245 // pshufd $0xf5,%xmm7,%xmm4 .byte 102,15,127,165,88,255,255,255 // movdqa %xmm4,-0xa8(%ebp) .byte 102,15,244,204 // pmuludq %xmm4,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,127,157,72,255,255,255 // movdqa %xmm3,-0xb8(%ebp) .byte 102,15,110,201 // movd %ecx,%xmm1 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 139,74,4 // mov 0x4(%edx),%ecx .byte 73 // dec %ecx .byte 102,15,110,209 // movd %ecx,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 102,15,112,193,0 // pshufd $0x0,%xmm1,%xmm0 .byte 243,15,91,226 // cvttps2dq %xmm2,%xmm4 .byte 102,15,127,101,200 // movdqa %xmm4,-0x38(%ebp) .byte 102,15,111,204 // movdqa %xmm4,%xmm1 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2 .byte 102,15,112,204,245 // pshufd $0xf5,%xmm4,%xmm1 .byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4 .byte 102,15,127,101,184 // movdqa %xmm4,-0x48(%ebp) .byte 102,15,244,204 // pmuludq %xmm4,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,209 // punpckldq %xmm1,%xmm2 .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp) .byte 232,0,0,0,0 // call 7d31 <_sk_clut_4D_sse2+0x179> .byte 89 // pop %ecx .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,41,165,120,254,255,255 // movaps %xmm4,-0x188(%ebp) .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1 .byte 102,15,127,141,184,254,255,255 // movdqa %xmm1,-0x148(%ebp) .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,15,254,233 // paddd %xmm1,%xmm5 .byte 102,15,127,173,24,255,255,255 // movdqa %xmm5,-0xe8(%ebp) .byte 102,15,111,243 // movdqa %xmm3,%xmm6 .byte 102,15,254,245 // paddd %xmm5,%xmm6 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,254,206 // paddd %xmm6,%xmm1 .byte 102,15,111,153,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm3 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 139,18 // mov (%edx),%edx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 102,15,126,206 // movd %xmm1,%esi .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 102,15,111,153,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm3 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5 .byte 102,15,126,239 // movd %xmm5,%edi .byte 102,15,126,211 // movd %xmm2,%ebx .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,41,149,136,254,255,255 // movaps %xmm2,-0x178(%ebp) .byte 102,15,254,137,239,42,0,0 // paddd 0x2aef(%ecx),%xmm1 .byte 102,15,112,233,229 // pshufd $0xe5,%xmm1,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 15,41,141,152,254,255,255 // movaps %xmm1,-0x168(%ebp) .byte 15,40,185,191,42,0,0 // movaps 0x2abf(%ecx),%xmm7 .byte 15,88,231 // addps %xmm7,%xmm4 .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp) .byte 15,40,141,232,254,255,255 // movaps -0x118(%ebp),%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp) .byte 15,40,141,40,255,255,255 // movaps -0xd8(%ebp),%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,41,141,168,254,255,255 // movaps %xmm1,-0x158(%ebp) .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4 .byte 15,88,252 // addps %xmm4,%xmm7 .byte 243,15,91,255 // cvttps2dq %xmm7,%xmm7 .byte 102,15,244,199 // pmuludq %xmm7,%xmm0 .byte 102,15,112,255,245 // pshufd $0xf5,%xmm7,%xmm7 .byte 102,15,244,125,184 // pmuludq -0x48(%ebp),%xmm7 .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1 .byte 102,15,112,199,232 // pshufd $0xe8,%xmm7,%xmm0 .byte 102,15,98,200 // punpckldq %xmm0,%xmm1 .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp) .byte 102,15,254,241 // paddd %xmm1,%xmm6 .byte 102,15,112,254,245 // pshufd $0xf5,%xmm6,%xmm7 .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1 .byte 102,15,244,241 // pmuludq %xmm1,%xmm6 .byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0 .byte 102,15,244,249 // pmuludq %xmm1,%xmm7 .byte 102,15,112,247,232 // pshufd $0xe8,%xmm7,%xmm6 .byte 102,15,98,198 // punpckldq %xmm6,%xmm0 .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,112,240,231 // pshufd $0xe7,%xmm0,%xmm6 .byte 102,15,126,247 // movd %xmm6,%edi .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6 .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,254 // unpcklps %xmm6,%xmm7 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,254,233 // paddd %xmm1,%xmm5 .byte 102,15,112,253,229 // pshufd $0xe5,%xmm5,%xmm7 .byte 102,15,126,248 // movd %xmm7,%eax .byte 102,15,112,253,78 // pshufd $0x4e,%xmm5,%xmm7 .byte 102,15,126,254 // movd %xmm7,%esi .byte 102,15,126,239 // movd %xmm5,%edi .byte 102,15,112,237,231 // pshufd $0xe7,%xmm5,%xmm5 .byte 102,15,126,235 // movd %xmm5,%ebx .byte 243,15,16,44,154 // movss (%edx,%ebx,4),%xmm5 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,205 // unpcklps %xmm5,%xmm1 .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,221 // unpcklps %xmm5,%xmm3 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 102,15,111,177,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm6 .byte 102,15,254,198 // paddd %xmm6,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,126,199 // movd %xmm0,%edi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 15,91,77,200 // cvtdq2ps -0x38(%ebp),%xmm1 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp) .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1 .byte 15,92,209 // subps %xmm1,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,209 // addps %xmm1,%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,40,141,136,254,255,255 // movaps -0x178(%ebp),%xmm1 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,40,141,152,254,255,255 // movaps -0x168(%ebp),%xmm1 .byte 15,92,249 // subps %xmm1,%xmm7 .byte 15,89,252 // mulps %xmm4,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 .byte 243,15,91,141,168,254,255,255 // cvttps2dq -0x158(%ebp),%xmm1 .byte 102,15,111,133,104,255,255,255 // movdqa -0x98(%ebp),%xmm0 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,201,245 // pshufd $0xf5,%xmm1,%xmm1 .byte 102,15,244,141,88,255,255,255 // pmuludq -0xa8(%ebp),%xmm1 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,127,133,88,255,255,255 // movdqa %xmm0,-0xa8(%ebp) .byte 102,15,111,149,24,255,255,255 // movdqa -0xe8(%ebp),%xmm2 .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 .byte 102,15,111,129,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm0 .byte 102,15,244,200 // pmuludq %xmm0,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,244,208 // pmuludq %xmm0,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,202 // punpckldq %xmm2,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 102,15,126,200 // movd %xmm1,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp) .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,111,129,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm0 .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,41,133,24,255,255,255 // movaps %xmm0,-0xe8(%ebp) .byte 102,15,254,206 // paddd %xmm6,%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6 .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,254,69,184 // paddd -0x48(%ebp),%xmm0 .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3 .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2 .byte 102,15,244,217 // pmuludq %xmm1,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,98,211 // punpckldq %xmm3,%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3 .byte 102,15,126,223 // movd %xmm3,%edi .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5 .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 15,20,232 // unpcklps %xmm0,%xmm5 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,254,196 // paddd %xmm4,%xmm0 .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3 .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,126,199 // movd %xmm0,%edi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 102,15,111,153,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm3 .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,40,173,104,255,255,255 // movaps -0x98(%ebp),%xmm5 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,40,141,24,255,255,255 // movaps -0xe8(%ebp),%xmm1 .byte 15,92,225 // subps %xmm1,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,88,225 // addps %xmm1,%xmm4 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,91,133,8,255,255,255 // cvtdq2ps -0xf8(%ebp),%xmm0 .byte 15,40,141,40,255,255,255 // movaps -0xd8(%ebp),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,41,141,40,255,255,255 // movaps %xmm1,-0xd8(%ebp) .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,92,232 // subps %xmm0,%xmm5 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,41,173,8,255,255,255 // movaps %xmm5,-0xf8(%ebp) .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp) .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,215 // addps %xmm7,%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 243,15,91,69,136 // cvttps2dq -0x78(%ebp),%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,149,248,254,255,255 // movdqa -0x108(%ebp),%xmm2 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,127,149,248,254,255,255 // movdqa %xmm2,-0x108(%ebp) .byte 102,15,254,149,184,254,255,255 // paddd -0x148(%ebp),%xmm2 .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp) .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,254,173,72,255,255,255 // paddd -0xb8(%ebp),%xmm5 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,145,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm2 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,145,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm2 .byte 102,15,254,202 // paddd %xmm2,%xmm1 .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4 .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7 .byte 15,20,231 // unpcklps %xmm7,%xmm4 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 102,15,254,195 // paddd %xmm3,%xmm0 .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,126,199 // movd %xmm0,%edi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 102,15,254,109,184 // paddd -0x48(%ebp),%xmm5 .byte 102,15,112,245,245 // pshufd $0xf5,%xmm5,%xmm6 .byte 102,15,111,129,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm0 .byte 102,15,244,232 // pmuludq %xmm0,%xmm5 .byte 102,15,112,253,232 // pshufd $0xe8,%xmm5,%xmm7 .byte 102,15,244,240 // pmuludq %xmm0,%xmm6 .byte 102,15,112,238,232 // pshufd $0xe8,%xmm6,%xmm5 .byte 102,15,98,253 // punpckldq %xmm5,%xmm7 .byte 102,15,112,239,229 // pshufd $0xe5,%xmm7,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,239,78 // pshufd $0x4e,%xmm7,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,112,239,231 // pshufd $0xe7,%xmm7,%xmm5 .byte 102,15,126,239 // movd %xmm5,%edi .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 102,15,111,223 // movdqa %xmm7,%xmm3 .byte 102,15,254,218 // paddd %xmm2,%xmm3 .byte 102,15,112,243,229 // pshufd $0xe5,%xmm3,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,126,223 // movd %xmm3,%edi .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 .byte 102,15,126,219 // movd %xmm3,%ebx .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 102,15,111,153,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm3 .byte 102,15,254,251 // paddd %xmm3,%xmm7 .byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,215,78 // pshufd $0x4e,%xmm7,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,126,255 // movd %xmm7,%edi .byte 102,15,112,215,231 // pshufd $0xe7,%xmm7,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 15,20,254 // unpcklps %xmm6,%xmm7 .byte 15,40,117,136 // movaps -0x78(%ebp),%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp) .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,89,234 // mulps %xmm2,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 15,92,249 // subps %xmm1,%xmm7 .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1 .byte 102,15,254,141,88,255,255,255 // paddd -0xa8(%ebp),%xmm1 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,177,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm6 .byte 102,15,244,198 // pmuludq %xmm6,%xmm0 .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2 .byte 102,15,244,206 // pmuludq %xmm6,%xmm1 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,254,137,223,42,0,0 // paddd 0x2adf(%ecx),%xmm1 .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,241 // unpcklps %xmm1,%xmm6 .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 15,41,141,24,255,255,255 // movaps %xmm1,-0xe8(%ebp) .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,254,85,184 // paddd -0x48(%ebp),%xmm2 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,224 // punpckldq %xmm0,%xmm4 .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,196,231 // pshufd $0xe7,%xmm4,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,254,129,223,42,0,0 // paddd 0x2adf(%ecx),%xmm0 .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,126,199 // movd %xmm0,%edi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 102,15,254,161,239,42,0,0 // paddd 0x2aef(%ecx),%xmm4 .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,112,196,231 // pshufd $0xe7,%xmm4,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,40,165,24,255,255,255 // movaps -0xe8(%ebp),%xmm4 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,92,243 // subps %xmm3,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,243 // addps %xmm3,%xmm6 .byte 15,40,93,136 // movaps -0x78(%ebp),%xmm3 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,40,133,40,255,255,255 // movaps -0xd8(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,92,213 // subps %xmm5,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,247 // addps %xmm7,%xmm6 .byte 15,91,133,216,254,255,255 // cvtdq2ps -0x128(%ebp),%xmm0 .byte 15,40,141,232,254,255,255 // movaps -0x118(%ebp),%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 .byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp) .byte 15,40,133,8,255,255,255 // movaps -0xf8(%ebp),%xmm0 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,41,157,8,255,255,255 // movaps %xmm3,-0xf8(%ebp) .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0 .byte 15,92,208 // subps %xmm0,%xmm2 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 .byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp) .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 .byte 15,41,181,216,254,255,255 // movaps %xmm6,-0x128(%ebp) .byte 243,15,91,141,120,255,255,255 // cvttps2dq -0x88(%ebp),%xmm1 .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp) .byte 102,15,111,133,56,255,255,255 // movdqa -0xc8(%ebp),%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,127,133,56,255,255,255 // movdqa %xmm0,-0xc8(%ebp) .byte 102,15,111,141,72,255,255,255 // movdqa -0xb8(%ebp),%xmm1 .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4 .byte 102,15,111,145,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm2 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm3 .byte 102,15,244,226 // pmuludq %xmm2,%xmm4 .byte 102,15,111,250 // movdqa %xmm2,%xmm7 .byte 102,15,112,196,232 // pshufd $0xe8,%xmm4,%xmm0 .byte 102,15,98,216 // punpckldq %xmm0,%xmm3 .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,197 // unpcklps %xmm5,%xmm0 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp) .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,111,145,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm2 .byte 102,15,254,226 // paddd %xmm2,%xmm4 .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4 .byte 102,15,126,227 // movd %xmm4,%ebx .byte 243,15,16,36,154 // movss (%edx,%ebx,4),%xmm4 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5 .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 102,15,254,153,239,42,0,0 // paddd 0x2aef(%ecx),%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,126,223 // movd %xmm3,%edi .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 .byte 102,15,126,219 // movd %xmm3,%ebx .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3 .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6 .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 102,15,254,77,184 // paddd -0x48(%ebp),%xmm1 .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3 .byte 102,15,244,207 // pmuludq %xmm7,%xmm1 .byte 102,15,112,225,232 // pshufd $0xe8,%xmm1,%xmm4 .byte 102,15,244,223 // pmuludq %xmm7,%xmm3 .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1 .byte 102,15,98,225 // punpckldq %xmm1,%xmm4 .byte 102,15,112,204,229 // pshufd $0xe5,%xmm4,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,204,78 // pshufd $0x4e,%xmm4,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,112,204,231 // pshufd $0xe7,%xmm4,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 102,15,126,224 // movd %xmm4,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,15,254,218 // paddd %xmm2,%xmm3 .byte 102,15,112,251,229 // pshufd $0xe5,%xmm3,%xmm7 .byte 102,15,126,248 // movd %xmm7,%eax .byte 102,15,112,251,78 // pshufd $0x4e,%xmm3,%xmm7 .byte 102,15,126,254 // movd %xmm7,%esi .byte 102,15,126,223 // movd %xmm3,%edi .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 .byte 102,15,126,219 // movd %xmm3,%ebx .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3 .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,251 // unpcklps %xmm3,%xmm7 .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,20,223 // unpcklps %xmm7,%xmm3 .byte 102,15,254,161,239,42,0,0 // paddd 0x2aef(%ecx),%xmm4 .byte 102,15,112,212,229 // pshufd $0xe5,%xmm4,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,212,78 // pshufd $0x4e,%xmm4,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,112,212,231 // pshufd $0xe7,%xmm4,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 15,20,231 // unpcklps %xmm7,%xmm4 .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 15,40,77,152 // movaps -0x68(%ebp),%xmm1 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp) .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,92,230 // subps %xmm6,%xmm4 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,88,230 // addps %xmm6,%xmm4 .byte 102,15,111,133,56,255,255,255 // movdqa -0xc8(%ebp),%xmm0 .byte 102,15,254,133,88,255,255,255 // paddd -0xa8(%ebp),%xmm0 .byte 102,15,127,133,56,255,255,255 // movdqa %xmm0,-0xc8(%ebp) .byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0 .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2 .byte 102,15,111,137,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm1 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0 .byte 102,15,98,240 // punpckldq %xmm0,%xmm6 .byte 102,15,112,198,229 // pshufd $0xe5,%xmm6,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,198,78 // pshufd $0x4e,%xmm6,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,198,231 // pshufd $0xe7,%xmm6,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 102,15,126,240 // movd %xmm6,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5 .byte 15,20,197 // unpcklps %xmm5,%xmm0 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 102,15,111,214 // movdqa %xmm6,%xmm2 .byte 102,15,111,153,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm3 .byte 102,15,254,211 // paddd %xmm3,%xmm2 .byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,234 // unpcklps %xmm2,%xmm5 .byte 15,20,239 // unpcklps %xmm7,%xmm5 .byte 102,15,254,177,239,42,0,0 // paddd 0x2aef(%ecx),%xmm6 .byte 102,15,112,214,229 // pshufd $0xe5,%xmm6,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,214,78 // pshufd $0x4e,%xmm6,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,126,247 // movd %xmm6,%edi .byte 102,15,112,214,231 // pshufd $0xe7,%xmm6,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 15,20,247 // unpcklps %xmm7,%xmm6 .byte 102,15,111,133,56,255,255,255 // movdqa -0xc8(%ebp),%xmm0 .byte 102,15,254,69,184 // paddd -0x48(%ebp),%xmm0 .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,248,232 // pshufd $0xe8,%xmm0,%xmm7 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 .byte 102,15,98,250 // punpckldq %xmm2,%xmm7 .byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,215,78 // pshufd $0x4e,%xmm7,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,112,215,231 // pshufd $0xe7,%xmm7,%xmm2 .byte 102,15,126,215 // movd %xmm2,%edi .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 15,20,194 // unpcklps %xmm2,%xmm0 .byte 102,15,126,248 // movd %xmm7,%eax .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2 .byte 15,20,202 // unpcklps %xmm2,%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,111,199 // movdqa %xmm7,%xmm0 .byte 102,15,254,195 // paddd %xmm3,%xmm0 .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,126,199 // movd %xmm0,%edi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 102,15,254,185,239,42,0,0 // paddd 0x2aef(%ecx),%xmm7 .byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,126,255 // movd %xmm7,%edi .byte 102,15,112,199,231 // pshufd $0xe7,%xmm7,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,248 // unpcklps %xmm0,%xmm7 .byte 15,20,250 // unpcklps %xmm2,%xmm7 .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,92,254 // subps %xmm6,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,88,254 // addps %xmm6,%xmm7 .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 15,40,133,40,255,255,255 // movaps -0xd8(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,41,141,56,255,255,255 // movaps %xmm1,-0xc8(%ebp) .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1 .byte 15,92,217 // subps %xmm1,%xmm3 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp) .byte 15,92,252 // subps %xmm4,%xmm7 .byte 15,89,248 // mulps %xmm0,%xmm7 .byte 15,88,252 // addps %xmm4,%xmm7 .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp) .byte 102,15,111,133,248,254,255,255 // movdqa -0x108(%ebp),%xmm0 .byte 102,15,254,69,136 // paddd -0x78(%ebp),%xmm0 .byte 102,15,127,133,248,254,255,255 // movdqa %xmm0,-0x108(%ebp) .byte 102,15,111,141,72,255,255,255 // movdqa -0xb8(%ebp),%xmm1 .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,254,69,168 // paddd -0x58(%ebp),%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,153,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm3 .byte 102,15,244,195 // pmuludq %xmm3,%xmm0 .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2 .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 15,20,195 // unpcklps %xmm3,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,111,177,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm6 .byte 102,15,254,206 // paddd %xmm6,%xmm1 .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 15,20,203 // unpcklps %xmm3,%xmm1 .byte 102,15,111,185,239,42,0,0 // movdqa 0x2aef(%ecx),%xmm7 .byte 102,15,254,215 // paddd %xmm7,%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,15,126,222 // movd %xmm3,%esi .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 15,20,211 // unpcklps %xmm3,%xmm2 .byte 102,15,111,221 // movdqa %xmm5,%xmm3 .byte 102,15,254,93,184 // paddd -0x48(%ebp),%xmm3 .byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4 .byte 102,15,111,129,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm0 .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3 .byte 102,15,244,224 // pmuludq %xmm0,%xmm4 .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4 .byte 102,15,98,220 // punpckldq %xmm4,%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,112,227,231 // pshufd $0xe7,%xmm3,%xmm4 .byte 102,15,126,231 // movd %xmm4,%edi .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4 .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 102,15,126,216 // movd %xmm3,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4 .byte 15,20,196 // unpcklps %xmm4,%xmm0 .byte 15,20,197 // unpcklps %xmm5,%xmm0 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,254,230 // paddd %xmm6,%xmm4 .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,15,126,238 // movd %xmm5,%esi .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4 .byte 102,15,126,227 // movd %xmm4,%ebx .byte 243,15,16,36,154 // movss (%edx,%ebx,4),%xmm4 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5 .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 102,15,254,223 // paddd %xmm7,%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,126,223 // movd %xmm3,%edi .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 .byte 102,15,126,219 // movd %xmm3,%ebx .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,243 // unpcklps %xmm3,%xmm6 .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4 .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3 .byte 15,20,227 // unpcklps %xmm3,%xmm4 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 15,40,181,72,255,255,255 // movaps -0xb8(%ebp),%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,88,233 // addps %xmm1,%xmm5 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,88,226 // addps %xmm2,%xmm4 .byte 102,15,111,141,248,254,255,255 // movdqa -0x108(%ebp),%xmm1 .byte 102,15,254,141,88,255,255,255 // paddd -0xa8(%ebp),%xmm1 .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0 .byte 102,15,254,193 // paddd %xmm1,%xmm0 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,111,145,207,42,0,0 // movdqa 0x2acf(%ecx),%xmm2 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,111,250 // movdqa %xmm2,%xmm7 .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,193 // punpckldq %xmm1,%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 .byte 102,15,126,207 // movd %xmm1,%edi .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,126,192 // movd %xmm0,%eax .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,254,137,223,42,0,0 // paddd 0x2adf(%ecx),%xmm1 .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,126,208 // movd %xmm2,%eax .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,15,126,214 // movd %xmm2,%esi .byte 102,15,126,207 // movd %xmm1,%edi .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 15,20,218 // unpcklps %xmm2,%xmm3 .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp) .byte 102,15,254,129,239,42,0,0 // paddd 0x2aef(%ecx),%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,126,199 // movd %xmm0,%edi .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0 .byte 102,15,126,195 // movd %xmm0,%ebx .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3 .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 15,20,217 // unpcklps %xmm1,%xmm3 .byte 102,15,111,206 // movdqa %xmm6,%xmm1 .byte 102,15,254,77,184 // paddd -0x48(%ebp),%xmm1 .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0 .byte 102,15,244,207 // pmuludq %xmm7,%xmm1 .byte 102,15,244,199 // pmuludq %xmm7,%xmm0 .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,208 // punpckldq %xmm0,%xmm2 .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0 .byte 102,15,126,198 // movd %xmm0,%esi .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0 .byte 102,15,126,199 // movd %xmm0,%edi .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0 .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1 .byte 15,20,200 // unpcklps %xmm0,%xmm1 .byte 102,15,126,208 // movd %xmm2,%eax .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7 .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 15,20,193 // unpcklps %xmm1,%xmm0 .byte 102,15,111,177,223,42,0,0 // movdqa 0x2adf(%ecx),%xmm6 .byte 102,15,254,242 // paddd %xmm2,%xmm6 .byte 102,15,112,206,229 // pshufd $0xe5,%xmm6,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,206,78 // pshufd $0x4e,%xmm6,%xmm1 .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,126,247 // movd %xmm6,%edi .byte 102,15,112,206,231 // pshufd $0xe7,%xmm6,%xmm1 .byte 102,15,126,203 // movd %xmm1,%ebx .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1 .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1 .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 15,20,207 // unpcklps %xmm7,%xmm1 .byte 102,15,254,145,239,42,0,0 // paddd 0x2aef(%ecx),%xmm2 .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi .byte 102,15,126,215 // movd %xmm2,%edi .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 .byte 102,15,126,211 // movd %xmm2,%ebx .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2 .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,242 // unpcklps %xmm2,%xmm6 .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2 .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7 .byte 15,20,215 // unpcklps %xmm7,%xmm2 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7 .byte 15,92,199 // subps %xmm7,%xmm0 .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,40,189,88,255,255,255 // movaps -0xa8(%ebp),%xmm7 .byte 15,92,207 // subps %xmm7,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,40,181,72,255,255,255 // movaps -0xb8(%ebp),%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,40,157,40,255,255,255 // movaps -0xd8(%ebp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,40,165,56,255,255,255 // movaps -0xc8(%ebp),%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 15,40,157,232,254,255,255 // movaps -0x118(%ebp),%xmm3 .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,40,165,120,255,255,255 // movaps -0x88(%ebp),%xmm4 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4 .byte 15,92,212 // subps %xmm4,%xmm2 .byte 15,89,211 // mulps %xmm3,%xmm2 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,91,157,184,254,255,255 // cvtdq2ps -0x148(%ebp),%xmm3 .byte 15,40,165,120,254,255,255 // movaps -0x188(%ebp),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,157,8,255,255,255 // movaps -0xf8(%ebp),%xmm3 .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,195 // addps %xmm3,%xmm0 .byte 15,40,157,104,255,255,255 // movaps -0x98(%ebp),%xmm3 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,40,157,216,254,255,255 // movaps -0x128(%ebp),%xmm3 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,117,12 // mov 0xc(%ebp),%esi .byte 141,86,8 // lea 0x8(%esi),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,40,153,255,42,0,0 // movaps 0x2aff(%ecx),%xmm3 .byte 82 // push %edx .byte 80 // push %eax .byte 255,86,4 // call *0x4(%esi) .byte 129,196,140,1,0,0 // add $0x18c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx .byte 93 // pop %ebp .byte 195 // ret BALIGN16 .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,1 // cmpb $0x1,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,1 // add %al,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,1 // add %al,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,1 // add %al,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 0,0 // add %al,(%eax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%eax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%eax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1) .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1) .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1) .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1) .byte 252 // cld .byte 190,0,0,252,190 // mov $0xbefc0000,%esi .byte 0,0 // add %al,(%eax) .byte 252 // cld .byte 190,0,0,252,190 // mov $0xbefc0000,%esi .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax) .byte 191,0,0,128,191 // mov $0xbf800000,%edi .byte 0,0 // add %al,(%eax) .byte 128,191,0,0,224,64,0 // cmpb $0x0,0x40e00000(%edi) .byte 0,224 // add %ah,%al .byte 64 // inc %eax .byte 0,0 // add %al,(%eax) .byte 224,64 // loopne 939c <.literal16+0x1fc> .byte 0,0 // add %al,(%eax) .byte 224,64 // loopne 93a0 <.literal16+0x200> .byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax .byte 10,23 // or (%edi),%dl .byte 63 // aas .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%edi),%dl .byte 63 // aas .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 93c1 <.literal16+0x221> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 93c5 <.literal16+0x225> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 93c9 <.literal16+0x229> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 93cd <.literal16+0x22d> .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,154 // cmpb $0x9a,(%edi) .byte 153 // cltd .byte 153 // cltd .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,61,10,23 // ds lcall $0x170a,$0x3d3e9999 .byte 63 // aas .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%edi),%dl .byte 63 // aas .byte 61,10,23,63,174 // cmp $0xae3f170a,%eax .byte 71 // inc %edi .byte 225,61 // loope 9401 <.literal16+0x261> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 9405 <.literal16+0x265> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 9409 <.literal16+0x269> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 940d <.literal16+0x26d> .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,154 // cmpb $0x9a,(%edi) .byte 153 // cltd .byte 153 // cltd .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,61,10,23 // ds lcall $0x170a,$0x3d3e9999 .byte 63 // aas .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%edi),%dl .byte 63 // aas .byte 61,10,23,63,174 // cmp $0xae3f170a,%eax .byte 71 // inc %edi .byte 225,61 // loope 9441 <.literal16+0x2a1> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 9445 <.literal16+0x2a5> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 9449 <.literal16+0x2a9> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 944d <.literal16+0x2ad> .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,154 // cmpb $0x9a,(%edi) .byte 153 // cltd .byte 153 // cltd .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,61,10,23 // ds lcall $0x170a,$0x3d3e9999 .byte 63 // aas .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax .byte 10,23 // or (%edi),%dl .byte 63 // aas .byte 61,10,23,63,174 // cmp $0xae3f170a,%eax .byte 71 // inc %edi .byte 225,61 // loope 9481 <.literal16+0x2e1> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 9485 <.literal16+0x2e5> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 9489 <.literal16+0x2e9> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 225,61 // loope 948d <.literal16+0x2ed> .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,255 // cmpb $0xff,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%eax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%eax) .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,127 // add %al,0x7f00003f(%eax) .byte 67 // inc %ebx .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 94cb <.literal16+0x32b> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 94cf <.literal16+0x32f> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 94d3 <.literal16+0x333> .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,145,131,158 // add %al,-0x617c6ec1(%eax) .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi) .byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,92 // ds pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 92 // pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 92 // pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 92 // pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 97 // popa .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 97 // popa .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi) .byte 145 // xchg %eax,%ecx .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi) .byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,92 // ds pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 92 // pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 92 // pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 92 // pop %esp .byte 143 // (bad) .byte 50,63 // xor (%edi),%bh .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 35,59 // and (%ebx),%edi .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 97 // popa .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi .byte 97 // popa .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax .byte 82 // push %edx .byte 184,78,65,82,184 // mov $0xb852414e,%eax .byte 78 // dec %esi .byte 65 // inc %ecx .byte 82 // push %edx .byte 184,78,65,82,184 // mov $0xb852414e,%eax .byte 78 // dec %esi .byte 65 // inc %ecx .byte 57,215 // cmp %edx,%edi .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%ebx) .byte 57,215 // cmp %edx,%edi .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%ebx) .byte 186,159,98,60,186 // mov $0xba3c629f,%edx .byte 159 // lahf .byte 98,60,186 // bound %edi,(%edx,%edi,4) .byte 159 // lahf .byte 98,60,186 // bound %edi,(%edx,%edi,4) .byte 159 // lahf .byte 98,60,109,165,144,63,109 // bound %edi,0x6d3f90a5(,%ebp,2) .byte 165 // movsl %ds:(%esi),%es:(%edi) .byte 144 // nop .byte 63 // aas .byte 109 // insl (%dx),%es:(%edi) .byte 165 // movsl %ds:(%esi),%es:(%edi) .byte 144 // nop .byte 63 // aas .byte 109 // insl (%dx),%es:(%edi) .byte 165 // movsl %ds:(%esi),%es:(%edi) .byte 144 // nop .byte 63 // aas .byte 252 // cld .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi .byte 16,62 // adc %bh,(%esi) .byte 252 // cld .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi .byte 16,62 // adc %bh,(%esi) .byte 168,177 // test $0xb1,%al .byte 152 // cwtl .byte 59,168,177,152,59,168 // cmp -0x57c4674f(%eax),%ebp .byte 177,152 // mov $0x98,%cl .byte 59,168,177,152,59,0 // cmp 0x3b98b1(%eax),%ebp .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%eax) .byte 64 // inc %eax .byte 0,0 // add %al,(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 0,64,0 // add %al,0x0(%eax) .byte 0,0 // add %al,(%eax) .byte 64 // inc %eax .byte 0,0 // add %al,(%eax) .byte 0,64,0 // add %al,0x0(%eax) .byte 0,0 // add %al,(%eax) .byte 64 // inc %eax .byte 0,0 // add %al,(%eax) .byte 128,64,0,0 // addb $0x0,0x0(%eax) .byte 128,64,0,0 // addb $0x0,0x0(%eax) .byte 128,64,0,0 // addb $0x0,0x0(%eax) .byte 128,64,171,170 // addb $0xaa,-0x55(%eax) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,62 // sub (%esi),%bh .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 62,0,0 // add %al,%ds:(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,171 // cmpb $0xab,(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,63 // sub (%edi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,63 // sub (%edi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,63 // sub (%edi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,63 // sub (%edi),%bh .byte 0,0 // add %al,(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 192,64,0,0 // rolb $0x0,0x0(%eax) .byte 128,64,0,0 // addb $0x0,0x0(%eax) .byte 128,64,0,0 // addb $0x0,0x0(%eax) .byte 128,64,0,0 // addb $0x0,0x0(%eax) .byte 128,64,171,170 // addb $0xaa,-0x55(%eax) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 42,62 // sub (%esi),%bh .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,0,248,0,0 // addb $0x0,0xf8003b(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 224,7 // loopne 9729 <.literal16+0x589> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 972d <.literal16+0x58d> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9731 <.literal16+0x591> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9735 <.literal16+0x595> .byte 0,0 // add %al,(%eax) .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 31 // pop %ds .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,8 // add %cl,(%eax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%edi,1) .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,128,0,128,55 // addb $0x37,-0x7fff7fc5(%eax) .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,127,67 // add %bh,0x43(%edi) .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 97eb <.literal16+0x64b> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 97ef <.literal16+0x64f> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 97f3 <.literal16+0x653> .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,0 // cmpb $0x0,(%ebx) .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 97e4 <.literal16+0x644> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 97e8 <.literal16+0x648> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 97ec <.literal16+0x64c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 97f0 <.literal16+0x650> .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 119,115 // ja 9875 <.literal16+0x6d5> .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,117,191 // ret $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 117,191 // jne 97d9 <.literal16+0x639> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 163,233,220,63,163 // mov %eax,0xa33fdce9 .byte 233,220,63,163,233 // jmp e9a3d816 <_sk_clut_4D_sse2+0xe9a35c5e> .byte 220,63 // fdivrl (%edi) .byte 163,233,220,63,0 // mov %eax,0x3fdce9 .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,81,140,242 // add %al,-0xd73aec1(%eax) .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 248 // clc .byte 245 // cmc .byte 154,64,248,245,154,64,248 // lcall $0xf840,$0x9af5f840 .byte 245 // cmc .byte 154,64,248,245,154,64,254 // lcall $0xfe40,$0x9af5f840 .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,52,0 // add %dh,(%eax,%eax,1) .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 98b4 <.literal16+0x714> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 98b8 <.literal16+0x718> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 98bc <.literal16+0x71c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 98c0 <.literal16+0x720> .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 119,115 // ja 9945 <.literal16+0x7a5> .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,117,191 // ret $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 117,191 // jne 98a9 <.literal16+0x709> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 163,233,220,63,163 // mov %eax,0xa33fdce9 .byte 233,220,63,163,233 // jmp e9a3d8e6 <_sk_clut_4D_sse2+0xe9a35d2e> .byte 220,63 // fdivrl (%edi) .byte 163,233,220,63,0 // mov %eax,0x3fdce9 .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,81,140,242 // add %al,-0xd73aec1(%eax) .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 248 // clc .byte 245 // cmc .byte 154,64,248,245,154,64,248 // lcall $0xf840,$0x9af5f840 .byte 245 // cmc .byte 154,64,248,245,154,64,254 // lcall $0xfe40,$0x9af5f840 .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,52,0 // add %dh,(%eax,%eax,1) .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 9984 <.literal16+0x7e4> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9988 <.literal16+0x7e8> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 998c <.literal16+0x7ec> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9990 <.literal16+0x7f0> .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 119,115 // ja 9a15 <.literal16+0x875> .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,117,191 // ret $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 117,191 // jne 9979 <.literal16+0x7d9> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 163,233,220,63,163 // mov %eax,0xa33fdce9 .byte 233,220,63,163,233 // jmp e9a3d9b6 <_sk_clut_4D_sse2+0xe9a35dfe> .byte 220,63 // fdivrl (%edi) .byte 163,233,220,63,0 // mov %eax,0x3fdce9 .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,81,140,242 // add %al,-0xd73aec1(%eax) .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 248 // clc .byte 245 // cmc .byte 154,64,248,245,154,64,248 // lcall $0xf840,$0x9af5f840 .byte 245 // cmc .byte 154,64,248,245,154,64,254 // lcall $0xfe40,$0x9af5f840 .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,52,0 // add %dh,(%eax,%eax,1) .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 9a54 <.literal16+0x8b4> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9a58 <.literal16+0x8b8> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9a5c <.literal16+0x8bc> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9a60 <.literal16+0x8c0> .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 119,115 // ja 9ae5 <.literal16+0x945> .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,117,191 // ret $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 117,191 // jne 9a49 <.literal16+0x8a9> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 163,233,220,63,163 // mov %eax,0xa33fdce9 .byte 233,220,63,163,233 // jmp e9a3da86 <_sk_clut_4D_sse2+0xe9a35ece> .byte 220,63 // fdivrl (%edi) .byte 163,233,220,63,0 // mov %eax,0x3fdce9 .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,81,140,242 // add %al,-0xd73aec1(%eax) .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 248 // clc .byte 245 // cmc .byte 154,64,248,245,154,64,248 // lcall $0xf840,$0x9af5f840 .byte 245 // cmc .byte 154,64,248,245,154,64,254 // lcall $0xfe40,$0x9af5f840 .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,52,0 // add %dh,(%eax,%eax,1) .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,0 // xor $0x0,%al .byte 0,0 // add %al,(%eax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) .byte 127,0 // jg 9b24 <.literal16+0x984> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9b28 <.literal16+0x988> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9b2c <.literal16+0x98c> .byte 255 // (bad) .byte 255 // (bad) .byte 127,0 // jg 9b30 <.literal16+0x990> .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 119,115 // ja 9bb5 <.literal16+0xa15> .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc .byte 194,117,191 // ret $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 117,191 // jne 9b19 <.literal16+0x979> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 249 // stc .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 163,233,220,63,163 // mov %eax,0xa33fdce9 .byte 233,220,63,163,233 // jmp e9a3db56 <_sk_clut_4D_sse2+0xe9a35f9e> .byte 220,63 // fdivrl (%edi) .byte 163,233,220,63,0 // mov %eax,0x3fdce9 .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,81,140,242 // add %al,-0xd73aec1(%eax) .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 81 // push %ecx .byte 140,242 // mov %?,%edx .byte 66 // inc %edx .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi .byte 63 // aas .byte 248 // clc .byte 245 // cmc .byte 154,64,248,245,154,64,248 // lcall $0xf840,$0x9af5f840 .byte 245 // cmc .byte 154,64,248,245,154,64,254 // lcall $0xfe40,$0x9af5f840 .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 254 // (bad) .byte 210,221 // rcr %cl,%ch .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 200,66,0,0 // enter $0x42,$0x0 .byte 200,66,0,0 // enter $0x42,$0x0 .byte 200,66,0,0 // enter $0x42,$0x0 .byte 200,66,0,0 // enter $0x42,$0x0 .byte 127,67 // jg 9c37 <.literal16+0xa97> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 9c3b <.literal16+0xa9b> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 9c3f <.literal16+0xa9f> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 9c43 <.literal16+0xaa3> .byte 0,0 // add %al,(%eax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%eax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%eax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%eax) .byte 0,195 // add %al,%bl .byte 0,0 // add %al,(%eax) .byte 128,65,0,0 // addb $0x0,0x0(%ecx) .byte 128,65,0,0 // addb $0x0,0x0(%ecx) .byte 128,65,0,0 // addb $0x0,0x0(%ecx) .byte 128,65,203,61 // addb $0x3d,-0x35(%ecx) .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax .byte 60,203 // cmp $0xcb,%al .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax .byte 13,60,111,18,3 // or $0x3126f3c,%eax .byte 59,111,18 // cmp 0x12(%edi),%ebp .byte 3,59 // add (%ebx),%edi .byte 111 // outsl %ds:(%esi),(%dx) .byte 18,3 // adc (%ebx),%al .byte 59,111,18 // cmp 0x12(%edi),%ebp .byte 3,59 // add (%ebx),%edi .byte 10,215 // or %bh,%dl .byte 163,59,10,215,163 // mov %eax,0xa3d70a3b .byte 59,10 // cmp (%edx),%ecx .byte 215 // xlat %ds:(%ebx) .byte 163,59,10,215,163 // mov %eax,0xa3d70a3b .byte 59,194 // cmp %edx,%eax .byte 24,17 // sbb %dl,(%ecx) .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%ecx) .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%ecx) .byte 60,194 // cmp $0xc2,%al .byte 24,17 // sbb %dl,(%ecx) .byte 60,203 // cmp $0xcb,%al .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi .byte 80 // push %eax .byte 128,3,62 // addb $0x3e,(%ebx) .byte 80 // push %eax .byte 128,3,62 // addb $0x3e,(%ebx) .byte 80 // push %eax .byte 128,3,62 // addb $0x3e,(%ebx) .byte 80 // push %eax .byte 128,3,62 // addb $0x3e,(%ebx) .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) .byte 118,63 // jbe 9cc3 <.literal16+0xb23> .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) .byte 118,63 // jbe 9cc7 <.literal16+0xb27> .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) .byte 118,63 // jbe 9ccb <.literal16+0xb2b> .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) .byte 118,63 // jbe 9ccf <.literal16+0xb2f> .byte 246,64,83,63 // testb $0x3f,0x53(%eax) .byte 246,64,83,63 // testb $0x3f,0x53(%eax) .byte 246,64,83,63 // testb $0x3f,0x53(%eax) .byte 246,64,83,63 // testb $0x3f,0x53(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,0 // cmpb $0x0,(%ebx) .byte 0,127,67 // add %bh,0x43(%edi) .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 9d3b <.literal16+0xb9b> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 9d3f <.literal16+0xb9f> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg 9d43 <.literal16+0xba3> .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%eax) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%eax) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%eax) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 224,7 // loopne 9db9 <.literal16+0xc19> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9dbd <.literal16+0xc1d> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9dc1 <.literal16+0xc21> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9dc5 <.literal16+0xc25> .byte 0,0 // add %al,(%eax) .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 31 // pop %ds .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,8 // add %cl,(%eax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%edi,1) .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 248 // clc .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 224,7 // loopne 9e29 <.literal16+0xc89> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9e2d <.literal16+0xc8d> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9e31 <.literal16+0xc91> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9e35 <.literal16+0xc95> .byte 0,0 // add %al,(%eax) .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 31 // pop %ds .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,8 // add %cl,(%eax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%edi,1) .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 248 // clc .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 0,248 // add %bh,%al .byte 0,0 // add %al,(%eax) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) .byte 224,7 // loopne 9e99 <.literal16+0xcf9> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9e9d <.literal16+0xcfd> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9ea1 <.literal16+0xd01> .byte 0,0 // add %al,(%eax) .byte 224,7 // loopne 9ea5 <.literal16+0xd05> .byte 0,0 // add %al,(%eax) .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh .byte 31 // pop %ds .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,31 // add %bl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,8 // add %cl,(%eax) .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%edi,1) .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 8,33 // or %ah,(%ecx) .byte 4,61 // add $0x3d,%al .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,248 // add %bh,%al .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 248 // clc .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 248 // clc .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 248 // clc .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) .byte 124,66 // jl 9f36 <.literal16+0xd96> .byte 0,0 // add %al,(%eax) .byte 124,66 // jl 9f3a <.literal16+0xd9a> .byte 0,0 // add %al,(%eax) .byte 124,66 // jl 9f3e <.literal16+0xd9e> .byte 0,0 // add %al,(%eax) .byte 124,66 // jl 9f42 <.literal16+0xda2> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax) .byte 136,55 // mov %dh,(%edi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax) .byte 136,55 // mov %dh,(%edi) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax) .byte 136,57 // mov %bh,(%ecx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax) .byte 136,57 // mov %bh,(%ecx) .byte 240,0,0 // lock add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%ecx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%eax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%ecx),%ecx .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%ecx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax) .byte 136,55 // mov %dh,(%edi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax) .byte 136,55 // mov %dh,(%edi) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax) .byte 136,57 // mov %bh,(%ecx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax) .byte 136,57 // mov %bh,(%ecx) .byte 240,0,0 // lock add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%ecx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%eax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%ecx),%ecx .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%ecx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax) .byte 136,55 // mov %dh,(%edi) .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax) .byte 136,55 // mov %dh,(%edi) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax) .byte 136,57 // mov %bh,(%ecx) .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax) .byte 136,57 // mov %bh,(%ecx) .byte 240,0,0 // lock add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%ecx) .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%eax) .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%ecx),%ecx .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,15 // add %cl,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%ecx) .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,0 // add %al,(%eax) .byte 112,65 // jo a0c5 <.literal16+0xf25> .byte 0,0 // add %al,(%eax) .byte 112,65 // jo a0c9 <.literal16+0xf29> .byte 0,0 // add %al,(%eax) .byte 112,65 // jo a0cd <.literal16+0xf2d> .byte 0,0 // add %al,(%eax) .byte 112,65 // jo a0d1 <.literal16+0xf31> .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%eax) .byte 0,0 // add %al,(%eax) .byte 127,67 // jg a13b <.literal16+0xf9b> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg a13f <.literal16+0xf9f> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg a143 <.literal16+0xfa3> .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax) .byte 128,59,129 // cmpb $0x81,(%ebx) .byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%eax) .byte 0,0 // add %al,(%eax) .byte 127,67 // jg a1ab <.literal16+0x100b> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg a1af <.literal16+0x100f> .byte 0,0 // add %al,(%eax) .byte 127,67 // jg a1b3 <.literal16+0x1013> .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 128,0,4 // addb $0x4,(%eax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 128,0,128 // addb $0x80,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,0 // add %al,0x0(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 128,0,4 // addb $0x4,(%eax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 128,0,128 // addb $0x80,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,0 // add %al,0x0(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,56 // add %bh,(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 128,0,4 // addb $0x4,(%eax) .byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%eax) .byte 0,4,0 // add %al,(%eax,%eax,1) .byte 128,0,0 // addb $0x0,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 128,56,0 // cmpb $0x0,(%eax) .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax) .byte 56,0 // cmp %al,(%eax) .byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%eax) .byte 255,0 // incl (%eax) .byte 64 // inc %eax .byte 254 // (bad) .byte 255,0 // incl (%eax) .byte 64 // inc %eax .byte 254 // (bad) .byte 255,0 // incl (%eax) .byte 64 // inc %eax .byte 254 // (bad) .byte 255,128,0,128,55,128 // incl -0x7fc88000(%eax) .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 128,0,128 // addb $0x80,(%eax) .byte 55 // aaa .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 255 // (bad) .byte 127,71 // jg a2db <.literal16+0x113b> .byte 0,255 // add %bh,%bh .byte 127,71 // jg a2df <.literal16+0x113f> .byte 0,255 // add %bh,%bh .byte 127,71 // jg a2e3 <.literal16+0x1143> .byte 0,255 // add %bh,%bh .byte 127,71 // jg a2e7 <.literal16+0x1147> .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,191,0,0,128,191,0 // cmpb $0x0,-0x40800000(%edi) .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax) .byte 191,0,0,0,63 // mov $0x3f000000,%edi .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,208 // cmpb $0xd0,(%edi) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) .byte 179,89 // mov $0x59,%bl .byte 62,89 // ds pop %ecx .byte 23 // pop %ss .byte 55 // aaa .byte 63 // aas .byte 89 // pop %ecx .byte 23 // pop %ss .byte 55 // aaa .byte 63 // aas .byte 89 // pop %ecx .byte 23 // pop %ss .byte 55 // aaa .byte 63 // aas .byte 89 // pop %ecx .byte 23 // pop %ss .byte 55 // aaa .byte 63 // aas .byte 152 // cwtl .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%ebx) .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax .byte 152 // cwtl .byte 221,147,61,255,255,0 // fstl 0xffff3d(%ebx) .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%eax) .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%eax) .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 75 // dec %ebx .byte 0,0 // add %al,(%eax) .byte 0,75,0 // add %cl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 83 // push %ebx .byte 0,0 // add %al,(%eax) .byte 0,83,0 // add %dl,0x0(%ebx) .byte 0,0 // add %al,(%eax) .byte 83 // push %ebx .byte 0,0 // add %al,(%eax) .byte 0,83,128 // add %dl,-0x80(%ebx) .byte 0,0 // add %al,(%eax) .byte 211,128,0,0,211,128 // roll %cl,-0x7f2d0000(%eax) .byte 0,0 // add %al,(%eax) .byte 211,128,0,0,211,45 // roll %cl,0x2dd30000(%eax) .byte 16,17 // adc %dl,(%ecx) .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110 .byte 17,192 // adc %eax,%eax .byte 45,16,17,192,18 // sub $0x12c01110,%eax .byte 120,57 // js a3ec <.literal16+0x124c> .byte 64 // inc %eax .byte 18,120,57 // adc 0x39(%eax),%bh .byte 64 // inc %eax .byte 18,120,57 // adc 0x39(%eax),%bh .byte 64 // inc %eax .byte 18,120,57 // adc 0x39(%eax),%bh .byte 64 // inc %eax .byte 32,148,90,62,32,148,90 // and %dl,0x5a94203e(%edx,%ebx,2) .byte 62,32,148,90,62,32,148,90 // and %dl,%ds:0x5a94203e(%edx,%ebx,2) .byte 62,4,157 // ds add $0x9d,%al .byte 30 // push %ds .byte 62,4,157 // ds add $0x9d,%al .byte 30 // push %ds .byte 62,4,157 // ds add $0x9d,%al .byte 30 // push %ds .byte 62,4,157 // ds add $0x9d,%al .byte 30 // push %ds .byte 62,0,24 // add %bl,%ds:(%eax) .byte 161,57,0,24,161 // mov 0xa1180039,%eax .byte 57,0 // cmp %eax,(%eax) .byte 24,161,57,0,24,161 // sbb %ah,-0x5ee7ffc7(%ecx) .byte 57,1 // cmp %eax,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,1 // add %al,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,1 // add %al,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,1 // add %al,(%ecx) .byte 0,0 // add %al,(%eax) .byte 0,111,43 // add %ch,0x2b(%edi) .byte 231,187 // out %eax,$0xbb .byte 111 // outsl %ds:(%esi),(%dx) .byte 43,231 // sub %edi,%esp .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx .byte 111 // outsl %ds:(%esi),(%dx) .byte 43,231 // sub %edi,%esp .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx .byte 159 // lahf .byte 215 // xlat %ds:(%ebx) .byte 202,60,159 // lret $0x9f3c .byte 215 // xlat %ds:(%ebx) .byte 202,60,159 // lret $0x9f3c .byte 215 // xlat %ds:(%ebx) .byte 202,60,212 // lret $0xd43c .byte 100,84 // fs push %esp .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp .byte 212,100 // aam $0x64 .byte 84 // push %esp .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp .byte 169,240,34,62,169 // test $0xa93e22f0,%eax .byte 240,34,62 // lock and (%esi),%bh .byte 169,240,34,62,169 // test $0xa93e22f0,%eax .byte 240,34,62 // lock and (%esi),%bh .byte 0,0 // add %al,(%eax) .byte 128,62,0 // cmpb $0x0,(%esi) .byte 0,128,62,0,0,128 // add %al,-0x7fffffc2(%eax) .byte 62,0,0 // add %al,%ds:(%eax) .byte 128,62,0 // cmpb $0x0,(%esi) .byte 0,0 // add %al,(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,0 // add %al,(%eax) .byte 192,0,0 // rolb $0x0,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 128,192,0 // add $0x0,%al .byte 0,128,192,0,0,128 // add %al,-0x7fffff40(%eax) .byte 192,0,0 // rolb $0x0,(%eax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%eax) .byte 128,0,0 // addb $0x0,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 128,192,0 // add $0x0,%al .byte 0,128,192,0,0,128 // add %al,-0x7fffff40(%eax) .byte 192,0,0 // rolb $0x0,(%eax) .byte 128,192,0 // add $0x0,%al .byte 0,0 // add %al,(%eax) .byte 128,0,0 // addb $0x0,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,63 // add %al,0x3f000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,192 // add %al,%al .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,0 // add %al,(%eax) .byte 191,0,0,0,191 // mov $0xbf000000,%edi .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,0 // add %al,(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,0 // add %al,(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,114 // cmpb $0x72,(%edi) .byte 28,199 // sbb $0xc7,%al .byte 62,114,28 // jb,pt a5d2 <.literal16+0x1432> .byte 199 // (bad) .byte 62,114,28 // jb,pt a5d6 <.literal16+0x1436> .byte 199 // (bad) .byte 62,114,28 // jb,pt a5da <.literal16+0x143a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,85 // cmpb $0x55,(%edi) .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %ebp .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi) .byte 99,61,57,142,99,61 // arpl %di,0x3d638e39 .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%esi) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 85 // push %ebp .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %ebp .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi) .byte 99,61,57,142,99,61 // arpl %di,0x3d638e39 .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%esi) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 114,28 // jb a69e <.literal16+0x14fe> .byte 199 // (bad) .byte 62,114,28 // jb,pt a6a2 <.literal16+0x1502> .byte 199 // (bad) .byte 62,114,28 // jb,pt a6a6 <.literal16+0x1506> .byte 199 // (bad) .byte 62,114,28 // jb,pt a6aa <.literal16+0x150a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%eax) .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,114 // cmpb $0x72,(%edi) .byte 28,199 // sbb $0xc7,%al .byte 62,114,28 // jb,pt a6e2 <.literal16+0x1542> .byte 199 // (bad) .byte 62,114,28 // jb,pt a6e6 <.literal16+0x1546> .byte 199 // (bad) .byte 62,114,28 // jb,pt a6ea <.literal16+0x154a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128,63,85 // cmpb $0x55,(%edi) .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %ebp .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi) .byte 99,61,57,142,99,61 // arpl %di,0x3d638e39 .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%esi) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 85 // push %ebp .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 85 // push %ebp .byte 85 // push %ebp .byte 149 // xchg %eax,%ebp .byte 191,85,85,149,191 // mov $0xbf955555,%edi .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi) .byte 99,61,57,142,99,61 // arpl %di,0x3d638e39 .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%esi) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 192,63,0 // sarb $0x0,(%edi) .byte 0,192 // add %al,%al .byte 63 // aas .byte 114,28 // jb a7ae <.literal16+0x160e> .byte 199 // (bad) .byte 62,114,28 // jb,pt a7b2 <.literal16+0x1612> .byte 199 // (bad) .byte 62,114,28 // jb,pt a7b6 <.literal16+0x1616> .byte 199 // (bad) .byte 62,114,28 // jb,pt a7ba <.literal16+0x161a> .byte 199 // (bad) .byte 62,171 // ds stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 171 // stos %eax,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 170 // stos %al,%es:(%edi) .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi .byte 114,249 // jb a7ab <.literal16+0x160b> .byte 127,63 // jg a7f3 <.literal16+0x1653> .byte 114,249 // jb a7af <.literal16+0x160f> .byte 127,63 // jg a7f7 <.literal16+0x1657> .byte 114,249 // jb a7b3 <.literal16+0x1613> .byte 127,63 // jg a7fb <.literal16+0x165b> .byte 114,249 // jb a7b7 <.literal16+0x1617> .byte 127,63 // jg a7ff <.literal16+0x165f> .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 114,249 // jb a7eb <.literal16+0x164b> .byte 127,63 // jg a833 <.literal16+0x1693> .byte 114,249 // jb a7ef <.literal16+0x164f> .byte 127,63 // jg a837 <.literal16+0x1697> .byte 114,249 // jb a7f3 <.literal16+0x1653> .byte 127,63 // jg a83b <.literal16+0x169b> .byte 114,249 // jb a7f7 <.literal16+0x1657> .byte 127,63 // jg a83f <.literal16+0x169f> .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 1,0 // add %eax,(%eax) .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 2,0 // add (%eax),%al .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) .byte 128,63,0 // cmpb $0x0,(%edi) .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax) .byte 63 // aas .byte 0,0 // add %al,(%eax) .byte 128 // .byte 0x80 .byte 63 // aas BALIGN4 .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) #endif